Microsoft, yapay zeka modellerinin ürettiği hatalı içeriklerin önüne geçmek için yeni bir “düzeltme” aracı geliştirdi. Basitçe ifade etmek gerekirse, Microsoft, bir yapay zekayı başka bir yapay zekayı kontrol etmek için kullanarak, yapay zekaların yanlış veya uydurma içerik üretme sorununu çözmeyi hedefliyor. Bu sorun, genel olarak ‘yapay zeka halüsinasyonları’ olarak adlandırılıyor.
Microsoft, bu araçla soruna çözüm üretecek
Generatif yapay zeka (Gen AI) son yıllarda büyük bir hızla yaygınlaştı. Ancak, bu yapay zeka tabanlı sohbet robotlarının bir kısmı, yanlış bilgi üretme eğilimi gösteriyor. Microsoft ise bu hataları engellemek amacıyla yeni bir ‘Correction’ (Düzeltme) özelliğini hayata geçiriyor.
Bu özellik, şirketin mevcut ‘Groundedness Detection’ (Dayanaklılık Tespiti) üzerine inşa edilmiş durumda… Temel olarak, bu yeni araç, yapay zekanın ürettiği metni, kullanıcının girdiği destekleyici bir belge ile çapraz kontrol ederek doğrulama yapıyor.
Microsoft’un bu yeni düzeltme aracı, Microsoft Azure AI Safety API kapsamında sunulacak. OpenAI’nin GPT-4o ve Meta’nın Llama gibi generatif yapay zeka platformlarını kullananlar, bu yeni özelliği yakında deneyimleme fırsatı bulacak. Düzeltme özelliği, olası yanlış içerikleri işaretlemeye çalışacak ve ardından bu içerikleri bir doğruluk kaynağı ile karşılaştırarak kontrol edecek.
Microsoft, yapay zeka halüsinasyonlarını gerçek zamanlı olarak çözebilecek düzeltme aracını sunarken, aynı zamanda ‘Evaluations’ (Değerlendirmeler) adı verilen bir araç daha geliştiriyor. Bu, yapay zekanın içerik üretmeden önce bir gizli çıkarım katmanı aracılığıyla risk değerlendirmesi yapmasını sağlıyor.
Yeni araç, hassas bilgilerin güvenli ve gizli kalmasını sağlamak için tasarlanmış durumda… Bu araç, yapay zekanın bilgi üretimi sırasında potansiyel gizlilik ihlallerini önlemeye yardımcı olabilecek. Microsoft, bu iki yeni araç ile yapay zeka dünyasındaki en büyük sorunlardan ikisini çözmeyi hedefliyor.