1. Haberler
  2. Manşet
  3. Amazon Alexa, kendi kendine haber uydurmaya başladı: İşte o ilginç haberler!

Amazon Alexa, kendi kendine haber uydurmaya başladı: İşte o ilginç haberler!

featured
Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Sesli asistan konusunda dünyada büyük bir akım başlatan ve sektörün en çok kullanılan asistanlarından biri olan Alexa, aldığı yapay zeka güncellemeleri sonrasında çok daha akıllı bir kimliğe bürünmüştü. Ancak Alexa, son dönemde yaydığı aslı astarı olmayan haberlerle gündeme gelmiş durumda.

Alexa, birçok farklı alanda haberler uyduruyor!

Amazon’un popüler sesli asistanı Alexa’nın kullanıcılara yanlış bilgiler ve aslında hiç olmayan haberler verdiği ortaya çıktı. İngiltere’nin önde gelen doğrulama kuruluşu Full Fact’in yaptığı araştırma, durumun sanılandan çok daha ciddi olduğunu gösteriyor.

Alexa Yapay ZekaAlexa Yapay Zeka

Full Fact’in CEO’su Chris Morris’in açıklamalarına göre, Alexa sadece yanlış bilgiler vermekle kalmıyor, bu bilgileri Full Fact kaynaklıymış gibi göstererek kurumun güvenilirliğini de zedeliyor.

Morris, “İnsanların mutfaklarında ve oturma odalarında bulunan güvenilir cihazlar üzerinden yanlış bilgiler yayılıyor. Daha da kötüsü, tam da düzeltmeye çalıştığımız yanlış bilgileri yaymak için kurumumuzun isminin kullanılması” şeklinde konuştu.

Tüm bu süreç, Kuzey Işıkları hakkında bilgi almak isteyen bir kullanıcının Full Fact’e başvurmasıyla ortaya çıktı. Alexa, doğal bir olay olan Kuzey Işıkları’nın Alaska’daki HAARP tesisi tarafından yapay olarak üretildiğini iddia etti. Bu yanıtın ardından yapılan incelemede, Alexa’nın başka konularda da yanıltıcı bilgiler verdiği tespit edildi.


ChatGPT Gelişmiş Ses Modu herkese açıldı! Sesli asistan sürpriziChatGPT Gelişmiş Ses Modu herkese açıldı! Sesli asistan sürprizi

ChatGPT Gelişmiş Ses Modu herkese açıldı! Sesli asistan sürprizi

OpenAI, ChatGPT Gelişmiş Ses için tüm kullanıcılara sürpriz yaptı. Geliştiriciler ise ChatGPT sesli asistan oluşturma özelliğine sahip oldu.

Örneğin, milletvekillerinin kahvaltı için 50 sterlin harcama yapabilecekleri, Başbakan Keir Starmer’ın İsrail ile diplomatik ilişkileri kesmeyi planladığı gibi asılsız iddialar da Alexa tarafından dile getirildi. Hatta Mike Tyson’ın CNBC’de İsrail’i boykot çağrısı yaptığı gibi tamamen uydurma bir haber bile asistanın repertuarında yer aldı.

Full Fact yetkilileri, Alexa’nın web sayfalarından bilgi toplama şeklindeki algoritmasının nasıl bu kadar yanıltıcı sonuçlar verdiğini anlayamadıklarını söyledi. Kurum, Google Asistan’ın da benzer hatalar yaptığını, ancak Apple’ın Siri’sinin daha tutarlı yanıtlar verdiğini tespit etti.

Siz bu konuda ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşmayı ihmal etmeyin.

Amazon Alexa, kendi kendine haber uydurmaya başladı: İşte o ilginç haberler!
Yorum Yap

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsin

Yeni haberlerden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini hemen başlat.

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Giriş Yap

ÜLKEM TV ayrıcalıklarından yararlanmak için hemen giriş yapın veya hesap oluşturun, üstelik tamamen ücretsiz!

Bizi Takip Edin
Enable Notifications OK No thanks