Üst seviye yapay zeka araştırmacıları, yapay zeka şirketleri ve hükümetlerin, yapay zeka araştırma ve geliştirme fonlarının en az üçte birini sistemlerin güvenliğini ve etik kullanımını sağlamaya ayırmaları gerektiğini belirtti.
Londra’daki milletlerarası Yapay Zeka Güvenlik Doruğu’ndan bir hafta evvel yayınlanan bildiride, hükümetlerin ve şirketlerin yapay zeka risklerini ele almak için alması gereken tedbirler sıralandı.
Reuters’in haberine nazaran, Üç Turing Mükafatı sahibi, bir Nobel ödüllü ve bir düzineden fazla üst seviye yapay zeka akademisyeni tarafından imzalanan açıklamada, “Hükümetler ayrıyeten şirketlerin, makul bir halde öngörülebilen ve önlenebilen öncü yapay zeka sistemlerinden kaynaklanan ziyanlardan yasal olarak sorumlu olmalarını mecburî kılmalıdır.” tabirleri yer aldı.
HENÜZ MADDELEŞMİŞ DEĞİL
Şu anda yapay zeka güvenliğine odaklanan geniş tabanlı bir düzenleme bulunmamaktadır ve Avrupa Birliği’nin birinci mevzuat seti, yasa koyucuların şimdi birkaç hususta mutabakata varamaması nedeniyle şimdi yasalaşmamıştır.
“YAPAY ZEKA ALINAN TEDBİRLERDEN DAHA SÜRATLİ İLERLİYOR”
Yapay zekanın vaftiz babası olarak bilinen üç bireyden biri olan Yoshua Bengio, “Son teknoloji yapay zeka modelleri, demokratik nezaret olmadan gelişmelerine müsaade verilemeyecek kadar güçlü ve değerli.
Bunun (yapay zeka güvenliğine yapılan yatırımların) süratli bir halde gerçekleşmesi gerekiyor, zira yapay zeka alınan tedbirlerden çok daha süratli ilerliyor” dedi.
Açıklamayı imzalayanlar ortasında Geoffrey Hinton, Andrew Yao, Daniel Kahneman, Dawn Song ve Yuval Noah Harari de bulunuyor.
YAPAY ZEKA GELİŞİMİNE ALTI AY ORTA VERİN ÇAĞRISI
OpenAI’nin üretken yapay zeka modellerinin piyasaya sürülmesinden bu yana, üst seviye akademisyenler ve Elon Musk üzere önde gelen CEO’lar, güçlü yapay zeka sistemlerinin geliştirilmesine altı ay orta verilmesi daveti da dahil olmak üzere, yapay zeka üzerindeki riskler konusunda ihtarlarda bulundu.