NSF, güvenli yapay zeka teknolojilerinin geliştirilmesine 10,9 milyon dolar yatırım yapıyor
ABD Ulusal Bilim Vakfı bugün, yapay zekadaki ilerlemelerin kullanıcı güvenliğiyle el ele gitmesini sağlamaya yardımcı olacak araştırmaları desteklemek için 10,9 milyon dolarlık bir yatırım yapacağını duyurdu.
Amacı Güvenli Öğrenme Özellikli Sistemler NSF, Open Philanthropy ve Good Ventures ortaklığındaki programın amacı, hem güvenli hem de dayanıklı, otonom ve üretken yapay zeka teknolojileri de dahil olmak üzere, güvenli bilgisayarlı öğrenme özellikli sistemlerin tasarlanmasına ve uygulanmasına yol açan temel araştırmaları teşvik etmektir.
NSF Direktörü Sethuraman Panchanathan, “NSF’nin yapay zeka sistemlerinin güvenliğini nasıl garanti edebileceğimizi araştırma taahhüdü, yapay zeka araştırma topluluğuna açık bir mesaj gönderiyor: Yapay zekanın sorumlu bir şekilde genişletilmesi ve evrimi için güvenliğin çok önemli olduğunu düşünüyoruz” dedi. “NSF, yalnızca yenilik fırsatları bulmak için değil, aynı zamanda güvenliği artırmak için de son teknoloji yapay zeka araştırmalarını desteklemeye devam ediyor.”
Yapay zeka sistemlerinin boyutu hızla büyüdükçe, yeni yetenekler kazandıkça ve sağlık, ticaret ve ulaşım gibi yüksek riskli ortamlarda kullanıldıkça, bu sistemlerin güvenliği son derece önemli hale geliyor. Bu ödüller, konuşlandırıldığında güvenli olmayan davranışların ortaya çıkmayacağından emin olmak için titizlikle test edilmiş, açık ve kesin uçtan uca güvenlik kısıtlamalarına sahip dayanıklı otomatik sistemler tasarlayarak yapay zekaya yapılan önemli NSF yatırımlarını temsil ediyor.
Aşağıdaki liste alıcıların projelerini tanımlar ve özetler:
- Vahşi Doğada Güvenliğe Duyarlı Öğrenmenin Temelleri, Wisconsin-Madison Üniversitesi.
Araştırmacılar, giderek daha dinamik ve öngörülemeyen ortamlarda vahşi ortamda konuşlandırılan sistemleri korumak için normal dağılımın dışındaki verileri tespit edebilen, güvenliğe duyarlı yeni makine öğrenimi algoritmaları ve metodolojileri tasarlayacak.
- Zarif Bozulma ve Prosedürel Doğrulama ile Vizyon Tabanlı Maksimum Sembolik Güvenlik Denetleyicisi, Princeton Üniversitesi.
Araştırmacılar, sürücüsüz arabalar ve ev robotları gibi otonom robotik sistemlerin eylemlerini sürekli olarak izleyebilecek ve güvenliği sağlamak için gerektiğinde müdahale edebilecek yeni teknolojiler geliştirmek için çalışacak.
- Öğrenme Destekli Güç Sistemlerinde Dağıtımsal Değişim Altında Güvenlik, Virginia Teknolojisi Ve Kaliforniya Üniversitesi, Berkeley.
Öncelikle güç sistemlerine odaklanan araştırmacılar, yeni öğrenme özellikli, güvenlik açısından kritik sistemler tasarlayacak, işbirlikçi karar almaya yönelik sistemleri keşfedecek ve nadir veya beklenmedik olaylar sırasında bu sistemlerin kapasitesini sağlamak için sıkı stres testleri uygulayacak.
- Güvenli Dağıtımlı Takviyeli Öğrenme Etkin Sistemler: Teoriler, Algoritmalar ve Deneyler, Michigan üniversitesi, Arizona Devlet Üniversitesi Ve Ohio Eyalet Üniversitesi.
Araştırmacılar, dağıtımsal takviyeli öğrenme tekniklerine dayalı güvenli öğrenmeyi destekleyen sistemler için temel teknolojiler geliştirerek, takviyeli öğrenme teknikleriyle ilişkili büyük bir engeli (güvenlik garantilerinin eksikliği) sınırlamaya çalışacaklar.
- Spesifikasyon rehberliğinde Algılama özellikli Uyumlu Güvenli Takviyeli Öğrenme, Pensilvanya Üniversitesi.
Bu proje, kesin matematiksel ve ampirik güvenlik garantileri ve kısıtlamaları olan bir takviyeli öğrenme çerçevesi tasarlamak ve uygulamak için takviyeli öğrenme, resmi yöntemler, makine öğrenimi teorisi ve robotik konularında uzmanlığa sahip araştırmacıları bir araya getirecek.
- Üretken Yapay Zeka Güvenliğine Teorik Bir Bakış: Yakın ve Uzun Vade, Harvard Üniversitesi.
Araştırmacılar, yapay zeka sistemlerinin amaçlanan davranışlarından sapmayacağına dair sağlam teorik güvenceler sağlayan, matematiksel açıdan titiz yapay zeka dağıtım yöntemleri geliştirecek. Bu, ChatGPT gibi üretken yapay zeka teknolojileri için sürdürülebilir kontroller ve arıza güvenlik önlemleri oluşturularak gerçekleştirilir.
- Özerklik Mimarilerinde Güvenli Öğrenme için Garantili Tüpler, Illinois Üniversitesi Urbana-Champaign Ve Güney Carolina Üniversitesi.
Bu araştırma, otonom öğrenmenin etkin olduğu sistemlerin beklenmedik değişikliklere ve bilinmeyen engellere öğrenmesine ve uyum sağlamasına olanak tanıyarak ilerlemenin temelini oluşturan “Veri Etkin Simpleks” adı verilen yeni bir sistem tasarlayacak.
- Güvenli öğrenmenin etkin olduğu sistemlerde çevrimdışı tasarım ve çevrimiçi uyarlama arasında köprü kurmak, Pensilvanya Üniversitesi Ve Kaliforniya Üniversitesi, Berkeley.
Bu proje, sistem güvenliğine yönelik riskler ile aktif veri toplama ve öğrenme arasında ilkeli dengelere izin veren ve böylece çevrimiçi güvenlik izleme ile çevrimdışı tasarım arasındaki döngüyü kapatan yeni tasarımlar kullanarak, bilinmeyen ortamlarda öğrenme özellikli sistemlerle ilişkili belirsizlikleri azaltmaya odaklanmıştır.
- CRASH – Güvenlik Güçlendirmesi için Zorlu Güçlendirme-öğrenme tabanlı Çelişkili senaryolar, Virginia Üniversitesi.
Bu proje, mevcut otonom araç yazılımını stres testi için yeni bir çerçeve geliştirerek potansiyel yazılım arızalarının belirlenmesine yardımcı olacak. Çerçeve, otonom araçların arızalanmasına neden olabilecek nadir ancak gerçekçi senaryolar kullanıyor ve ardından arızanın tekrarlanmamasını sağlamak için yazılımı geliştiriyor.
- Öğrenmenin Etkinleştirildiği Sistemlerin Niteliksel ve Niceliksel Güvenlik Değerlendirmesinin Temelleri, Nebraska-Lincoln Üniversitesi Ve Augusta Üniversitesi Araştırma Enstitüsü.
Bu proje, öğrenme özellikli otonom sistemler için uçtan uca niteliksel ve niceliksel güvenlik değerlendirmelerinin temellerini oluşturmayı, emniyetle ilgili endişelerin kapsamlı bir şekilde anlaşılmasına olanak sağlamayı ve belirsiz ortamlarda etkili emniyet doğrulamasını sağlamayı amaçlamaktadır.
- Yapay Zeka Tabanlı Sıralı Üretimde Güvenlik Kısıtlamalarının Doğrulanması ve Uygulanması, UCLA Ve Urbana-Champaign’deki Illinois Üniversitesi.
Bir araştırmacı ekibi, çeşitli senaryolar altında yapay zeka programlarının güvenliğini değerlendirmek ve kritik görev durumları altındaki davranışlarının güvencesini sağlamak için algoritmalar geliştirecek. Bu analiz, beklenmedik yapay zeka hatalarını azaltacak, yapay zeka teknolojilerinde önyargı ve ayrımcılığı önleyecek, yapay zeka sistemlerini insani değerler ve toplumsal normlarla uyumlu hale getirecek ve yapay zeka destekli uygulamalar için halkın güvenini inşa edecek.
Hakkında daha fazla bilgi Güvenli Öğrenme Özellikli Sistemler program şu adreste bulunabilir:nsf.gov.