Meta, yapay zekâ güvenliği için yeni adımlar atıyor: Tehlikeli görülen sistemler kamuya açık paylaşılmayacak

WhatsApp, Facebook ve Instagram’ın sahibi Meta’nın İleri Seviye Yapay Zekâ Çerçevesi (Frontier AI Framework) isimli yeni evrakına nazaran, şirket birtakım senaryolarda yüksek yetenekli yapay zekâ sistemlerini oluşturduğu riskler nedeniyle paylaşmayabilir. Bu ay Fransa’daki Yapay Zekâ Hareket Doruğu öncesinde yayımlanan bu çerçevede Meta, “yüksek riskli” ve “kritik riskli” olmak üzere iki farklı yapay zekâ kümesinin tarifini yapıyor.
Yüksek riskli sistemler makul tedbirlerle inançlı hâle getirilebiliyorken, kritik riskli sistemler “felaketle sonuçlanabilecek tehlikeler barındırdığı için” Meta, bu çeşit sistemlerin gelişimini durduracağını ve güvenlik tedbirlerini artıracağını açıkladı.
Meta’nın belirttiğine nazaran, bilhassa ileri seviye siber atakları gerçekleştirebilecek yahut yüksek tesirli biyolojik silahların yayılmasına neden olabilecek yapay zekâ sistemleri kritik risk taşıyor. Şirket, sistemlerin tehlike seviyesini belirlemek için iç ve dış uzmanların görüşlerini dikkate aldığını belirtirken, yapay zekâ güvenliğinin kesin bir ölçüm standardına sahip olmadığını da kabul ediyor.
Öte yandan Meta’nın CEO’su Mark Zuckerberg Facebook üzerinden 2025 yılında yapay zekânın gelişimine yönelik beklentilerini aktardığı değerlendirmede yapay zekâ sistemlerinin açık kaynaklı olması gerektiğini savundu. Meta da, yapay zekâ teknolojisini geniş çapta erişime açma stratejisini benimsediğini vurgulasa da, uzmanlara nazaran bu büsbütün açık kaynaklı bir sistemle ilerleyecekleri manasına gelmiyor. Şirketin Llama ismini taşıyan yapay zekâ modellerinin en az bir ABD aykırısı aktör tarafından bir savunma sohbet botu geliştirmek için kullanıldığı da daha evvel tespit edilmişti.
patronlardunyasi.com