OpenAI, İki haftadan az bir süre içerisinde insanlığı yapay zekanın varoluşsal tehditlerinden koruma görevi olan ekibi dağıttıktan sonra yeni bir Güvenlik ve Güvenlik Komitesi oluşturdu. OpenAI'nin güvenlik korkuluklarından sorumlu olan grup, şirketin kar amacı ve Microsoft ortağı ile rekabetçi bir yarış içinde olduğu bu dönemde bu son iterasyonun içinde iki yönetim kurulu üyesi ve CEO Sam Altman'ı da bulundurarak, bu hareketin kendini denetleme tiyatrosundan başka bir şey olup olmadığı konusunda soru işaretleri uyandırdı.
OpenAI'nin yönetim kurulu tarafından oluşturulan Güvenlik ve Güvenlik Komitesi, başkanlığını yönetim kurulu üyeleri Bret Taylor (Başkan), Nicole Seligman, Adam D'Angelo ve Sam Altman (CEO) tarafından yapılacak. Bu yeni ekip, kurucuları Ilya Sutskever ve Jan Leike'in şirketi terk etmelerine yol açan yüksek profilli istifalarının ardından oluştu.
İstifasının ardından Leike, 17 Mayıs'ta Twitter'da yayımladığı bir X (Twitter) dizisinde, şirketin temel misyonuna inanmasına rağmen, ürün ve güvenlik gibi iki tarafın (''ürün ve güvenlik'') ''bir patlama noktasına ulaştığını'' belirtti. Leike, yapay zeka daha akıllı hale geldikçe güvenlikle ilgili konulara yeterince dikkat etmek adına ''uygun bir rotada olmadığımızdan'' endişe duyduğunu ekledi. Leike, Superalignment ekibinin son zamanlarda şirket içinde "rüzgara karşı yelken açtığını" ve "güvenlik kültürü ve süreçlerinin parlak ürünlere arka planda kaldığını" ifade etti.
Şirketin bu ayki güvenlik istifaları, son zamanlarda endişe verici haberlerle sınırlı değildi. Ayrıca, çok hızlı bir şekilde tanıttığı ve hemen ardından çeken ünlü oyuncu Scarlett Johansson'a oldukça benzeyen bir ses modeli başlattı. Jojo Rabbit oyuncusu daha sonra OpenAI'nin CEO'su Sam Altman'ın onayını almak için ona sesini eğitmek için izin istediğini ancak kendisinin reddettiğini ortaya çıkardı.
Johansson'ın ekibi tarafından yapılan açıklamada, Johansson'ın, "en yakın arkadaşları ve haber kaynaklarının bile farkı anlayamadığını" belirttiği bir ses yeteneğinin seslendirildiği için şaşkına döndüğü ifade edildi.
OpenAI, ayrılan yöneticilerden alınan ifade vermeme anlaşmalarını geri çekti ve hatta bunları uygulamayacağını söyleyerek tavrını değiştirdi. Öncesinde, şirket, ayrılan çalışanlara şirkete karşı konuşma ve kazandıkları çıkarılmış eşitlik arasında seçim yapmak zorunda bırakmıştı.
Güvenlik ve Güvenlik Komitesi, şirketin süreçlerini ve güvenlik önlemlerini 90 gün içinde değerlendirmeyi ve geliştirmeyi planlıyor. Daha sonra grup, tavsiyelerini tüm yönetim kurulu ile paylaşacak. Tüm liderlik ekibi sonuçlarını değerlendirdikten sonra, kararlaştırılan önerilerle ilgili bir güncelleme yapılacak.
OpenAI, yeni Güvenlik ve Güvenlik Komitesini duyuran blog gönderisinde, şirketin şu anda GPT 4'ü başaracak olan bir sonraki modelini eğittiğini doğruladı. ''Endüstri lideri yetenekleri ve güvenlik açısından'' başarılı bir şekilde modeller geliştirmemizle gurur duyuyoruz, ancak bu önemli anın önemli bir tartışma olması buna hoş geldiniz" şeklinde not düştü.
OpenAI'nin bu son gelişmeleri, teknolojinin etik, güvenlik ve şeffaflık konularında öncü bir rol oynayacağı beklentisi içinde olanlar için ciddi endişelere yol açmaktadır. Şirketin, güvenlik ve insanlığa yönelik riskler konusundaki sorumluluklarını ciddiye alması ve şeffaf bir işleyiş sergilemesi, teknolojinin geleceği açısından oldukça kritik bir önem taşımaktadır. Bu gelişmeler yakından takip edilmeli ve güvenli yapay zeka geliştirme sürecinde şeffaflık ve hesap verebilirlik ilkeleri ön planda tutulmalıdır.