Google, 2018 yılında duyurduğu yapay zeka ilkelerinde önemli bir değişiklik yaptı. The Washington Post tarafından fark edilen bu güncelleme, şirketin yapay zekayı silah sistemleri veya gözetleme teknolojileri için kullanmayacağına dair önceki net taahhütlerini kaldırdığını gösteriyor.
Şirketin daha önceki yönergelerinde yer alan “peşinden gitmeyeceğimiz uygulamalar” başlıklı bölüm, yeni belgede tamamen kaldırıldı. Bunun yerine, “sorumlu geliştirme ve dağıtım” başlıklı yeni bir çerçeve getirildi. Google, bu yeni yaklaşımında yapay zeka kullanımının “kullanıcı hedefleri, sosyal sorumluluk, uluslararası hukuk ve insan haklarının yaygın olarak kabul görmüş ilkeleriyle uyumlu olacağını” ve “insan denetimi, gerekli özen ve geri bildirim mekanizmaları” ile destekleneceğini vurguluyor.
Bu değişiklik, Google’ın önceki yapay zeka ilkelerinden daha geniş kapsamlı ve esnek bir çerçeveye geçtiğini gösteriyor. Daha önce, şirket açıkça “yapay zekanın temel amacı veya uygulaması insanlara zarar vermek olan silah sistemlerinde kullanılmayacağını” taahhüt ediyordu. Benzer şekilde, “uluslararası kabul görmüş normları” ihlal eden gözetleme teknolojileri geliştirmeyeceğini de belirtmişti. Ancak yeni güncellenen metinde bu tür kesin ifadeler yer almıyor.
Bu değişikliğe ilişkin açıklama yapan DeepMind CEO’su Demis Hassabis ve Google Araştırma, Laboratuvarlar, Teknoloji ve Toplum Kıdemli Başkan Yardımcısı James Manyika, yapay zekanın “genel amaçlı bir teknoloji” olarak hızla gelişmesi nedeniyle şirketin politikalarını güncellemesi gerektiğini savunuyor.
Bu güncelleme, Google’ın yapay zeka etiği konusunda daha esnek bir yaklaşım benimsediğine işaret ederken, “sorumlu yapay zeka kullanımı” çerçevesinin ne kadar bağlayıcı olacağı konusunda soru işaretleri yaratıyor.
Hiç Yorum Yapılmamış. İlk Yorumu Sen Yap