NSF Haberler

Birisi ne zaman bir AI asistanının tahminlerine güvenmeli?

Yoğun bir hastanede bir radyolog, hastaların röntgen görüntülerine dayanarak tıbbi durumları teşhis etmesine yardımcı olmak için yapay bir zeka sistemi kullanır. Yapay zeka sistemini kullanmak, daha hızlı tanı koymasına yardımcı olabilir, ancak yapay zekanın tahminlerine ne zaman güveneceğini nasıl biliyor?

Geleneksel olarak yapmaz. Bunun yerine, bir tahminde bulunmak için uzmanlığına, sistemin kendisi tarafından sağlanan bir güven düzeyine veya algoritmanın tahminini nasıl yaptığının açıklamasına (ki bu ikna edici görünebilir ancak yine de yanlış olabilir) güvenebilir.

İnsanların bir yapay zeka “takım arkadaşına” ne zaman güveneceklerini daha iyi anlamalarına yardımcı olmak için, Massachusetts Teknoloji Enstitüsü Araştırmacılar, bir makinenin ne zaman doğru tahminler yaptığını ve ne zaman yanlış tahminler yaptığını daha doğru bir şekilde anlamaları için insanlara rehberlik eden bir teknik geliştirdi. Araştırma tarafından desteklenen ABD Ulusal Bilim Vakfı.

İnsanlara yapay zekanın yeteneklerini nasıl tamamladığını gösteren yeni teknik, insanların yapay zeka temsilcileriyle çalışırken daha iyi kararlar almasına veya daha hızlı sonuçlara varmasına yardımcı olabilir.

MIT’den Hussein Mozannar, “Zayıflıklarını ve güçlü yanlarını görebilmeleri için insanları bu AI modeline kademeli olarak tanıttığımız bir öğretim aşaması öneriyoruz” diyor. “Bunu, insanların pratikte AI ile etkileşime girme şeklini taklit ederek yapıyoruz, ancak her etkileşimi anlamalarına yardımcı olmak için onlara geri bildirim vermek için müdahale ediyoruz.”

Mozannar, araştırmayı yine MIT’den Arvind Satyanarayan ve David Sontag ile birlikte yürüttü. Bulgular Şubat ayında Yapay Zekayı Geliştirme Derneği Konferansı’nda sunulacak.

Çalışma, insanların oluşturduğu zihinsel modellere odaklanıyor. Örneğin radyolog bir vakadan emin değilse, belli bir alanda uzman olan bir meslektaşına sorabilir. Bu meslektaşla ilgili deneyimine ve bilgisine dayanarak, tavsiyeyi değerlendirmek için kullandığı güçlü ve zayıf yönlerine ilişkin zihinsel bir modele sahiptir.

Mozannar, insanların yapay zeka ile etkileşime girdiklerinde aynı türden zihinsel modeller oluşturduğunu, bu nedenle bu modellerin doğru olmasının önemli olduğunu söylüyor. Bilişsel bilim, insanların geçmiş etkileşimleri ve deneyimleri hatırlayarak karmaşık görevler hakkında kararlar aldıklarını öne sürüyor. Bu nedenle araştırmacılar, bir kişinin gelecekte yararlanabileceği referans noktaları olarak hizmet eden, insan ve yapay zekanın birlikte çalışmasına ilişkin örnekler sağlayan bir süreç tasarladılar.

NSF’nin Bilgi İşlem ve İletişim Temelleri Bölümü yöneticisi Rance Cleaveland, “Bu çalışma, yapay zekadaki gerçek dünya problemlerinin çözümünde matematiksel sonuçların nasıl uygulanabileceğinin ideal bir örneğidir” dedi. “Temel araştırma ve uygulamaları arasındaki etkileşim, NSF’nin aradığı türden etkili sonuçların ayırt edici özelliğidir.”

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir