Teknoloji

OpenAI ve Anthropic AI Modellerinin Güvenliği İçin İşbirliği Yapıyor

Geçtiğimiz günlerde, OpenAI ve Anthropic, ABD AI Güvenlik Enstitüsü ile önemli bir anlaşmaya imza attıklarını duyurdular. Bu anlaşma kapsamında, her iki şirket de AI modellerini, hem piyasaya sürülmeden önce hem de ardından, enstitüye sunacak. 2023 yılında Başkan Biden tarafından kurulan ABD AI Güvenlik Enstitüsü, şirketlerin modellerini geliştirmelerine yardımcı olmak amacıyla güvenlik geribildirimleri sağlayacak.

OpenAI CEO'su Sam Altman, bu anlaşmanın sinyallerini daha önce vermişti. Ancak, ABD AI Güvenlik Enstitüsü diğer şirketlerle ilgili herhangi bir bilgi sunmadı. Bununla birlikte, bir Google sözcüsü, Google'ın enstitü ile görüşmelerde bulunduğunu ve daha fazla bilgi verileceğini belirtti. Bu hafta itibarıyla Google, Gemini adını taşıyan güncellenmiş chatbot ve görüntü oluşturucu modellerinin dağıtımına başladı.



ABD AI Güvenlik Enstitüsü Müdürü Elizabeth Kelly, yaptığı açıklamada, "Güvenlik, teknolojik yeniliği desteklemek için kritik bir öneme sahiptir. Bu anlaşmaların hayata geçmesiyle, Anthropic ve OpenAI ile teknik işbirliklerimize başlamayı dört gözle bekliyoruz." ifadelerini kullandı. Kelly, bu anlaşmaların yalnızca bir başlangıç olduğuna, ancak AI geleceğini sorumlu bir şekilde yönlendirmek adına önemli bir kilometre taşı olduğuna dikkat çekti.

ABD AI Güvenlik Enstitüsü, Ulusal Standartlar ve Teknoloji Enstitüsü (NIST) bünyesinde faaliyet göstermektedir. Potansiyel olarak tehlikeli AI sistemlerinin test edilmesi ve değerlendirilmesi için kılavuzlar, benchmark testleri ve en iyi uygulamalar oluşturmakta ve yayımlamaktadır. Başkan Yardımcısı Kamala Harris, 2023 yılında ajansın kurulmasının ardından, "AI hem derin bir iyilik yapma potansiyeline sahiptir hem de daha önce görülmemiş ölçeklerde AI destekli siber saldırılar ve milyonlarca insanın hayatını tehlikeye atabilecek AI formüle edilmiş biyolojik silahlar gibi ciddi zararlara yol açabilir." diyerek, bu teknolojinin zarar potansiyeline dikkat çekti.

Söz konusu ortaklık, formal ancak bağlayıcı olmayan bir Mutabakat Zaptı (Memorandum of Understanding MoU) çerçevesinde gerçekleştirildi. Enstitü, her şirketin "büyük yeni modellerine" hem kamuya sunulmadan önce hem de sonrasında erişim sağlayacak. Anlaşmalar, yetenekleri ve güvenliği değerlendirmek amacıyla işbirlikçi ve risk azaltıcı araştırmalar olarak tanımlanıyor. ABD AI Güvenlik Enstitüsü, ayrıca Birleşik Krallık AI Güvenlik Enstitüsü ile de işbirliği yapacak.



Bu gelişmeler, federal ve eyalet düzenleyicilerin hızla ilerleyen teknoloji için AI koruma tedbirleri oluşturma çabaları ile paralel olarak gelmektedir. Geçtiğimiz günlerde, Kaliforniya eyalet meclisi, 100 milyon dolardan fazla geliştirme maliyeti gerektiren veya belirli bir miktarda işlem gücü talep eden AI modelleri için güvenlik testi zorunluluğunu getiren bir AI güvenlik tasarısını (SB 10147) onayladı. Bu tasarı, AI şirketlerinin, "kontrol edilemez veya zorlu hale gelirlerse" modellerini kapatabilen bir "kill switch" yani acil kapatma mekanizmasına sahip olmasını şart koşmaktadır.

Bağlayıcı olmayan federal anlaşmanın aksine, Kaliforniya tasarısının uygulanabilirliğini artıran bazı yaptırımları bulunmaktadır. Tasarı, eyaletin başsavcısına, AI geliştiricileri uyum sağlamadığında, özellikle tehdit seviyeleri yüksek olduğunda dava açma yetkisi vermektedir. Ancak, yasanın onaylanması için bir süreç oylaması daha yapılması ve Kaliforniya Valisi Gavin Newsom'un, bu yasanın yürürlüğe girmesi için 30 Eylül'e kadar karar vermesi gerekmektedir.



Bu gelişmeler, AI teknolojisinin geleceği ve güvenlik ihtiyaçları açısından büyük bir öneme sahip. AI sistemlerinin doğru bir şekilde test edilmesi ve tehlikelerin minimize edilmesi, tüm dünya için kritik bir süreç olarak karşımıza çıkmaktadır.

Paylaş: