New York Times Raporu, OpenAI'nin Sam Altman'ın güvenilirliği hakkındaki iç şüphelerini ortaya koyuyor

iconTechFlow
Paylaş
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconÖzet

expand icon
New York Times'in zincir üzerindeki haberi, OpenAI'de CEO Sam Altman'ın güvenilirliği konusunda içsel şüpheleri ortaya koyuyor. 100'den fazla röportaj ve iç belgeye dayanarak rapor, Altman'ın yönetim kurumunu yanılttığını ve güvenlik önlemlerini kaldırdığını iddia ediyor. Eski baş bilim insanı Ilya Sutskever'in hazırladığı 70 sayfalık bir belge, GPT-4 hakkında yanlış iddialar da dahil olmak üzere Altman'ın яalımlı davrandığını anlatıyor. Anthropic'in Dario Amodei, özel olarak "OpenAI'nin sorunu Sam'dır" dedi. Raporda, OpenAI'nin bir kar amacı gütmeyen güvenlik misyonundan ticari bir varlığa geçişine dikkat çekiliyor ve ana protokollerin görmezden gelindiği belirtiliyor. Yeni token listelemeleri ve kurumsal strateji değişiklikleri, AI ve kripto sektörlerinde daha dikkatli incelenmeye başlandı.

Yazan: Xiao Bing, Shenchao TechFlow

2023 sonbaharında, OpenAI baş bilim insanı Ilya Sutskever, bilgisayarının önünde 70 sayfalık bir belgeyi tamamladı.

Bu belge, Slack mesaj kayıtlarından, İnsan Kaynakları iletişim arşivlerinden ve dahili toplantı tutanaklarından derlenmiştir ve yalnızca bir soruya cevap vermektedir: Sam Altman, muhtemelen insanlık tarihinin en tehlikeli teknolojisini yöneten kişi, güvenilir mi?

Sutskever'in cevabı, dosyanın ilk sayfasının ilk satırına yazıldı, liste başlığı "Sam, tutarlı bir davranış modeli sergiliyor..."

İlk: Yalan söylemek.

Bugün, iki buçuk yıl sonra, araştırmacı gazeteci Ronan Farrow ve Andrew Marantz, The New Yorker'da uzun bir araştırmacı makale yayımladı. 100'den fazla taraftan röportaj aldı, daha önce hiçbir zaman kamuoyuna açılmamış iç mektupları ele geçirdi ve Anthropic'in kurucusu Dario Amodei'nin OpenAI döneminde bıraktığı 200 sayfadan fazla özel notları elde etti. Bu belgelerin bir araya getirerek oluşturduğu hikâye, 2023'teki "saray çatışması"ndan çok daha kötü bir görüntü çiziyor: OpenAI, insan güvenliği için kurulan bir kar amacı gütmeyen organizasyondan nasıl adım adım bir ticari makineye dönüştü ve neredeyse her güvenlik koruması, aynı kişinin eliyle sökülüyor?

Amodei, notlarında daha açık bir sonuç ortaya koydu: “OpenAI’nin sorunu Sam’dir.”

OpenAI'nin "ölümsüz" ayarı

Bu haberin önemini anlamak için OpenAI şirketinin ne kadar özel olduğunu açıklayalım.

2015 yılında Altman ve bir grup Silicon Valley elit, insanlık tarihinin en güçlü teknolojilerinden birini geliştirmek için neredeyse ticari tarihte benzeri görülmemiş bir adım attı: bir kar amacı gütmeyen organizasyon. Kurulun görevi açıkça yazılıydı: güvenliğin şirketin başarısından ve hatta varlığınından daha öncelikli olması. Açıkçası, bir gün OpenAI'nin yapay zekâsının tehlikeli hale gelirse, kurulun görevi bu şirketi kendi elleriyle kapatmak olacaktır.

Tüm mimari, AGI'yi yöneten kişinin son derece dürüst biri olması varsayımına dayanmaktadır.

Yanlış tahmin ederseniz?

Ana patlama, 70 sayfalık belgedir. Sutskever ofis siyasetiyle uğraşmaz, dünyanın en üst düzey AI bilimcilerinden biridir. Ancak 2023 yılında, o, bir şeyden giderek daha emin hale geldi: Altman, yönetici ve yönetim kurulu üyelerine sürekli olarak yanlış bilgiler veriyor.

2022 yılında Aralık ayında, Altman bir yönetim kurulu toplantısında, yakında yayınlanacak GPT-4'ün birçok özelliğinin güvenlik incelemesinden geçtiğini garanti etti. Yönetim kurulu üyesi Toner, onay belgelerini görmek istedi ve sonuçta en tartışmalı iki özellik (kullanıcı tarafından özelleştirilmiş ince ayar ve bireysel asistan dağıtımı) için güvenlik panelinden hiçbir onay alındığını gördü.

Daha tuhaf bir olay Hindistan'da yaşandı. Bir çalışan, "bu ihlal"i bir diğer yönetim kurulu üyesine bildirdi: Microsoft, gerekli güvenlik incelemelerini tamamlamadan Hindistan'da ChatGPT'nin erken sürümünü yayınladı.

Sutskever, hatıralarında başka bir şeyi de kaydetmişti: Altman, eski CTO Mira Murati'ye güvenlik onay sürecinin o kadar önemli olmadığını, şirketin genel hukuk danışmanının onayladığını söylemişti. Murati, genel hukuk danışmanına doğrulamak için başvurduğunda, bu kişi şöyle cevap verdi: "Sam'in bu izlenimi nereden aldığını bilmiyorum."

Amodei'nin 200 sayfalık özel notları

Sutskever'in belgeleri bir savcının iddianamesi gibi. Amodei'nin bıraktığı 200'den fazla sayfa not, bir tanık olay yerinde yazdığı bir günlük gibi.

Amodei, OpenAI'de güvenlik sorumlusu olarak çalıştığı yıllarda şirketin ticari baskılar altında adım adım geri çekildiğini gözlemledi. Notlarında 2019 Microsoft yatırımıyla ilgili bir kritik detayı kaydetti: OpenAI'nin statüsünde, başka bir şirket daha güvenli bir AGI yolu bulursa OpenAI'nin rekabeti bırakıp o şirkete yardım etmesini sağlayan "birleşme ve destek" maddesini yerleştirmişti. Bu, tüm işlem sırasında en önemli güvenlik garantisi olarak gördüğü şeydi.

Amodei, imza sırasında bir şey fark etti: Microsoft, bu maddeye karşı veto hakkı kazanmıştı. Bu ne demek? Bir gün bir rakip daha iyi bir yol bulsa bile, Microsoft bir cümleyle OpenAI'nin yardım yükümlülüğünü kapatabilirdi. Madde hâlâ kağıtta olsa da, imza atıldığı günden itibaren çöp kağıdı oldu.

Amodei, daha sonra OpenAI'den ayrılarak Anthropic'ı kurdu. İki şirket arasındaki rekabet, "AI nasıl geliştirilmeli?" sorusuna ilişkin temel bir fikir ayrılığına dayanıyor.

Kaybolan %20 hesaplama kapasitesi taahhüdü

Haberde, OpenAI'nin " Süper Hizalama Takımı" hakkında okuduktan sonra sırtı ürperten bir detay var.

2023 yılının ortalarında, Altman, "yanlış hizalama" (AI'nın testlerde iyi görünmek ama gerçek dağıtım sonrası kendi yöntemlerini uygulaması) üzerine Berkeley'de araştıran bir doktora öğrencisine e-posta gönderdi ve bu sorundan büyük endişe duyduğunu, 1 milyar dolarlık küresel bir araştırma ödülü kurmayı düşündüğünü söyledi. Doktora öğrencisi cesaretlendirildi, okulunu bıraktı ve OpenAI'ye katıldı.

Ardından Altman fikrini değiştirdi: dış ödüller yerine şirket içinde "Süper Hizalama Takımı" kurulacak. Şirket, mevcut hesaplama gücünün %20'sinin bu takıma tahsis edileceğini ve potansiyel değerinin 1 milyar doları aşacağını açıkça duyurdu. Duyuruda, hizalama sorunu çözülmezse AGI'nin "insanlığın gücünden mahrum bırakılmasına veya hatta türün yok olmasına" neden olabileceği son derece ciddi bir dille ifade edildi.

Ekibi yönetmeye atanan Jan Leike, daha sonra bu taahhütün kendisinin oldukça etkili bir "yetenek tutma aracı" olduğunu gazetecilere söyledi.

Peki gerçeklik nedir? Bu takımda çalışan veya yakından etkileşimde bulunan dört kişi, tahsis edilen hesaplama gücü şirketin toplam hesaplama gücünün %1 ile %2'si olduğunu ve bunun en eski donanımlar olduğunu söylüyor. Daha sonra bu takım çözüldü ve misyon tamamlanamadı.

Bir gazeteci, OpenAI'nin "varoluşsal güvenlik" araştırmalarından sorumlu kişilerle röportaj yapma talebinde bulunduğunda, şirketin kamu ilişkileri bir tepki gösterdi: "Bu bir... gerçek olmayan şey."

Altman, kendisi oldukça sakin. Gazetecilere, "intuisyonunun birçok geleneksel AI güvenliği yaklaşımıyla uyumlu olmadığını" söyledi; OpenAI, "güvenlikle ilgili projeler yapmaya devam edecek ya da en azından güvenlikle ilişkili projeler."

Boşuna mahkûm edilen CFO ve yakında gelen IPO

The New Yorker'un haberi, o günün kötü haberlerinin sadece yarısıydı. Aynı gün, The Information, OpenAI'nin CFO'su Sarah Friar ile Altman arasında ciddi bir anlaşmazlık olduğunu ortaya çıkardı.

Friar, koleğine OpenAI'nin bu yıl halka arz için hazır olmadığını söyledi. İki neden: tamamlanması gereken prosedürel ve organizasyonel iş yükü çok büyük ve Altman'ın 5 yıl içinde 600 milyar dolarlık hesaplama harcaması vaadiyle getirdiği finansal risk çok yüksek. Hatta OpenAI'nin gelir büyümesinin bu vaatleri karşılayıp karşılayamayacağını bile emin değil.

Ancak Altman, bu yılın dördüncü çeyreğinde IPO'ya ulaşmak istiyor.

Daha da tuhaf olan, Friar'ın artık doğrudan Altman'a rapor vermiyor olması. 2025 yılının Ağustosundan itibaren, o, OpenAI'nin uygulama işleri CEO'su Fidji Simo'ya rapor veriyor. Simo ise geçen hafta sağlık nedeniyle izine çıkmıştı. Bu durumu değerlendirin: IPO'ya doğru hızlanan bir şirket, CEO ve CFO arasında temel anlaşmazlıklar var, CFO CEO'ya rapor vermiyor ve CFO'nun üst yöneticisi izinde.

Microsoft iç yöneticileri bile bunu göremeyip, Altman'ın "gerçeği çarpıttığını, sözlerini değiştirdiğini ve kabul edilmiş anlaşmaları sürekli bozduğunu" söyledi. Microsoft'tan bir yönetici şu ifadeyi dahi kullandı: "Onu Bernie Madoff veya SBF seviyesinde bir dolandırıcı olarak hatırlanacak şekilde bitirecek olasılığı olduğunu düşünüyorum."

Altman'ın "çift yüzlü" resmi

Bir önceki OpenAI yönetim kurulu üyesi, gazetecilere Altman'ın iki özelliğini anlattı. Bu ifade, habere ait en sert karakter betimlemesi olabilir.

Bu yönetici, Altman'ın her yüz yüze iletişimde karşı tarafı memnun etme ve beğenilme konusunda son derece nadir bir istek biriktirdiğini, aynı zamanda başkalarını aldatmanın getirebileceği sonuçlar konusunda neredeyse sosyal patolojik bir ilgisizlik sergilediğini söyledi.

İki özellik aynı anda bir insanda bulunması çok nadirdir. Ancak bir satıcı için bu en mükemmel yetenektir.

Haberde kullanılan bir benzetme iyi ifade ediliyor: Jobs, "gerçeklik çarpıtma alanı" ile ünlüydü ve dünyanın onun vizyonuna inanmasını sağlayabilirdi. Ancak Jobs bile müşterilerine "MP3 çalarımı satın almazsanız, sevdikleriniz ölecek" dememiştir.

Altman, AI hakkında benzer bir şey söylemişti.

Bir CEO'nun karakter sorunu, neden herkesin riskidir?

Altman, sadece sıradan bir teknoloji şirketinin CEO'su olsaydı, bu iddialar en iyi ihtimalle harika bir iş haberiydi. Ancak OpenAI sıradan değil.

Kendi ifadesine göre, tarih boyunca insanlık için en güçlü teknolojiyi geliştiriyor. Küresel ekonomiyi ve işgücü piyasalarını yeniden şekillendirebilir (OpenAI, AI'nın işsizlik sorununa dair yeni bir politika beyanı yayınladı) ve büyük ölçekli biyokimyasal silahlar üretilmesi veya siber saldırılar başlatılması için kullanılabilir.

Tüm güvenlik korumaları boşuna. Kurucunun kar amacı gütmeyen misyonu, IPO koşusuna terk edildi. Önceki baş bilim insanı ve önceki güvenlik sorumlusu, CEO'yu "güvenilmez" olarak değerlendirdi. Ortaklar, CEO'yu SBF ile karşılaştırdı. Bu durumda, bu CEO'nun insanlık kaderini değiştirebilecek AI modelini ne zaman yayınlaması konusunda tek başına karar verme hakkı nedir?

Gary Marcus (New York Üniversitesi AI profesörü, uzun süredir AI güvenliği savunucusu) haberi okuduktan sonra bir cümle yazdı: Gelecekteki bir OpenAI modelinin büyük ölçekli biyokimyasal silahlar üretmesi veya felaket yaratan bir ağ saldırısı başlatması durumunda, Altman'ın yayınlayıp yayınlamayacağını tek başına karar vermesine gerçekten güvenebilir misiniz?

OpenAI'nin The New Yorker'a verdiği yanıt ise özlüydi: "Makalenin büyük bir kısmı daha önce haberleşilen olayları, anonim ifadeler ve seçici anekdotlarla yeniden dolaşıyor; kaynaklar açıkça kişisel amaçlar taşıyor."

Altman'ın yanıt yaklaşımı: Spesifik iddialara yanıt vermemek, notun doğruluğunu reddetmemek, sadece motivasyonu sorgulamak.

Kâr amacı gütmeyen bir cesedin üzerinde bir para ağacı yetişti

OpenAI'in on yılı, bir hikâye şeması olarak şöyle yazılır:

AI risk'ı endişe eden bir grup idealist, bir misyon odaklı kar amacı gütmeyen bir organizasyon kurdu. Organizasyon, olağanüstü bir teknik başarı elde etti. Başarı, devasa sermaye çekti. Sermaye, geri dönüş istiyordu. Misyon, yerini vermeye başladı. Güvenlik ekibi dağıtıldı. Şüpheliler temizlendi. Kar amacı gütmeyen yapı, kar amacı güden bir varlığa dönüştürüldü. Bir zamanlar şirketi kapatma yetkisine sahip olan yönetim kurulu, şimdi CEO'nun müttefikleriyle doluydu. Bir zamanlar hesaplama gücünün %20'sini insanlık güvenliği için ayırmayı vaat eden şirketin kamu ilişkileri görevlileri artık "bu gerçek bir şey değil" diyor.

Hikayenin kahramanına, yüzlerce gözlemci aynı etiketi verdi: "Gerçekten bağımsız."

Bu şirketi 850 milyar doların üzerinde bir değerle halka açmaya hazırlanıyor.

Bu metin, The New Yorker, Semafor, Tech Brew, Gizmodo, Business Insider, The Information gibi birçok medyanın açık kaynaklı haberlerinden derlenmiştir.

Yasal Uyarı: Bu sayfadaki bilgiler üçüncü şahıslardan alınmış olabilir ve KuCoin'in görüşlerini veya fikirlerini yansıtmayabilir. Bu içerik, herhangi bir beyan veya garanti olmaksızın yalnızca genel bilgilendirme amacıyla sağlanmıştır ve finansal veya yatırım tavsiyesi olarak yorumlanamaz. KuCoin, herhangi bir hata veya eksiklikten veya bu bilgilerin kullanımından kaynaklanan sonuçtan sorumlu değildir. Dijital varlıklara yapılan yatırımlar riskli olabilir. Lütfen bir ürünün risklerini ve risk toleransınızı kendi finansal koşullarınıza göre dikkatlice değerlendirin. Daha fazla bilgi için lütfen Kullanım Koşullarımıza ve Risk Açıklamamıza bakınız.