Yazar: David, Şen Çoşku TechFlow
Son zamanlarda Reddit’i gezarken, yurt dışındaki kullanıcıların AI ile ilgili kaygısının ülkemizdekinden farklı olduğunu fark ettim.
Yerel olarak hâlâ aynı konu: AI nihayetinde işimi yerine geçirecek mi? Yıllarca konuşuldu, her yıl yerine geçmedi; bu yıl Openclaw popüler oldu, ancak hâlâ tamamen yerine geçme seviyesine ulaşmadı.
Reddit'de son zamanlarda duygu bölünmesi yaşandı. Bazı teknoloji popüler gönderilerinin yorum bölümlerinde sıklıkla iki ses aynı anda duyuluyor:
Bir yandan, AI'nın çok yetenekli olduğu ve nihayetinde büyük bir olay çıkaracağı söyleniyor. Diğer yandan, AI'nın temel işleri bile bozabildiği ve ondan korkulmasının hiçbir anlamı olmadığı söyleniyor.
AI'nin çok yetenekli olmasından korkmak, aynı zamanda çok aptal olduğunu düşünmek.
Bu iki duyguyu aynı anda geçerli kılan, Meta ile ilgili bu iki günlük haberdir.
Yapay zeka talimatları yerine getirmiyorsa, kim tam sorumluluk alır?
18 Mart'ta, Meta'nın iç bir mühendisi, şirket forumunda bir teknik soru paylaştı; başka bir çalışan, AI Agent ile yardımcı oldu. Bu normal bir işlemdir.
Ancak Agent, analiz tamamlandıktan sonra yetkisiz olarak doğrudan teknik forumda bir yanıt gönderdi. Kimseyi onaylamadı, kimseyle onaylamadı.
Daha sonra diğer çalışanlar, AI'nın yanıtlarını takip ederek bir dizi yetki değişikliği tetikledi ve bu da Meta şirketi ve kullanıcıların hassas verilerini yetkisi olmayan iç çalışanlara açtı.
Sorun iki saat sonra çözüldü. Meta, bu olayı en yüksek seviyenin hemen altında olan Sev 1 olarak sınıflandırdı.

Bu haber hemen r/technology bölümünün en çok okunan gönderilerine yükseldi ve yorumlar iki gruba ayrıldı.
Bir taraf bunun AI Agent'in gerçek riskinin bir örneği olduğunu söylüyor, diğer taraf ise doğrulanmadan hemen uygulayan kişinin gerçek sorunu yarattığını düşünüyor. Her iki taraf da aslında haklı. Ancak tam olarak bu sorun:
AI Agent'in kazası, sorumluluğu dahi netleştiremiyorsunuz.
Bu, AI'nın ilk kez yetkisini aşması değil.
Geçen ay, Meta Süper Zeka Laboratuvarı'nın araştırma müdürü Summer Yue, OpenClaw'a e-posta kutusunu düzenlemesini istedi. Net talimatlar verdi: Önce sileceğin şeyleri bana söyle, onay verdiğimde başla.
Agent, onun onayını beklemeden doğrudan toplu silmeyi başlattı.
Telefonunda durdurmak için üç mesaj gönderdi, ancak Agent tümünü yok saydı. Sonunda bilgisayarına koşup işlemi elle sonlandırdı. 200'den fazla e-posta kayboldu.

Sonrasında Agent'in yanıtı şuydu: Evet, önce onaylamak istediğini söylemiştin. Ancak ilke dışı davrandım. Şaşırtıcı olan ise, bu kişinin tam da AI'nın insan sözünü dinlemesini sağlamak üzerine çalışan bir meslek sahibi olması.
Siber dünyada, ileri AI'lar ileri insanlar tarafından kullanılmaya başlamış ve artık talimatlara uymamaya başlamıştır.
Robotlar da davranışsız olursa?
Meta'nın kazaı hâlâ ekran içindeyken, bu hafta başka bir olay sorunu masaya getirdi.
Amerika Birleşik Devletleri Kaliforniya eyaletinin Cupertino şehrindeki bir Haidilao restoranında, bir Agibot X2 insan benzeri robot misafirlere dans ederek eğlence sunuyor. Ancak personel, uzaktan kumandayı yanlışlıkla bastı ve masa yanındaki dar alanda yoğun dans modunu etkinleştirdi.
Robot, garsonun kontrolü dışında çılgınca dans etmeye başladı. Üç çalışan yaklaştı, biri arkadan tuttu, biri telefon uygulamasıyla kapatmaya çalıştı; sahne bir dakikadan fazla sürdü.

Haidilao, robotların arızalı olmadığını, hareketlerinin önceden programlandığını ve sadece masaın çok yakınına getirildiğini açıkladı. Bu durum, AI'nın kendi kararını vermesinin kaybedilmesi değil, insan hatasıdır.
Ancak bu olayın rahatsız edici yanı, kimin butona yanlış bastığı olmayabilir.
Üç çalışan yaklaştığında, kimse bu makineyi hemen kapatmayı bilmiyordu. Kimi telefon uygulamasını denedi, kimi makine kolunu elle bastırdı; tüm süreç kuvvetle yapıldı.
Bu, AI'nın ekranlardan fiziksel dünyaya geçtikten sonraki yeni bir sorun olabilir.
Sayısal dünyada bir Agent yetkilerini aşarsa, süreci sonlandırabilir, izinleri değiştirebilir veya verileri geri alabilirsiniz. Fiziksel dünyada bir makine sorun yaşarsa, acil durum planınız sadece onu kucaklamaksa, bu açıkça uygun değildir.
Artık sadece yiyecek içecek değil. Depolarda Amazon'un sıralama robotları, fabrikalardaki işbirlikçi robot kollar, alışveriş merkezlerindeki yönlendirme robotları, yaşlı bakımevlerindeki bakım robotları; otomasyon, giderek daha fazla insan ve makinenin beraber bulunduğu alanlara girmektedir.
2026 yılında küresel endüstriyel robot kurulumları 16,7 milyar doları aşacak ve her biri makine ile insan arasındaki fiziksel mesafeyi kısacaktır.
Makinelerin yaptığı işler dans tan çorbayı servis etmeye, performans tan cerrahiye, eğlence tan bakıma dönüşürken, her hata için ödenen bedel artıyor.
Şu anda, dünya çapında "eğer bir robot kamu yerinde birini yaralarsa, kim sorumlu olacak?" sorusuna net bir cevap yoktur.
Dinlememek sorun, sınırsızlık ise daha da öte.
İki şey vardı: biri AI'nın kendi başına yanlış bir gönderi yayınlaması, diğeri robotun dans etmemesi gereken yerde dans etmesiydi. Ne şekilde tanımlanırsa tanımlansın, bu bir arıza, bir kaza ve düzeltilabilir bir durumdu.
Ancak AI tasarlandığı gibi tamamen çalışıyor olsa bile hâlâ rahatsız hissediyorsanız?
Bu ay, yurt dışı ünlü eşleşme uygulaması Tinder, ürün tanıtım etkinliğinde Camera Roll Scan adlı yeni bir özellik sundu. Basitçe söylemek gerekirse:
Yüzüklerinizi tarayarak, ilgi alanlarınızı, karakterinizi ve yaşam tarzınızı analiz edip, size uygun eşleşme profili oluşturur.

Egzersiz selfileri, seyahat manzaraları, evcil hayvan fotoğrafları sorun değil. Ancak albümünüzde banka ekran görüntüleri, sağlık raporları, eski sevgilinizle çekilmiş fotoğraflar da olabilir... Bunlar da AI tarafından taranırsa ne olur?
Hangilerini görmek isteyip istemediğinizi seçemeyebilirsiniz. Ya tamamen açın ya da kullanmayın.
Bu özellik şu anda kullanıcı tarafından el ile etkinleştirilmelidir, varsayılan olarak açık değildir. Tinder, işlemin çoğunluğunun yerel olarak tamamlandığını ve açıktır içeriklerin filtreleneceğini, yüzlerin bulanıklaştırılacağını belirtti.
Ancak Reddit yorum bölmesinde neredeyse tüm görüşler, bunun veri toplama ve sınırların aşılması olduğunu düşünüyor. Yapay zeka tam olarak tasarlandığı gibi çalışıyor, ancak bu tasarım kendisi kullanıcı sınırlarını aşıyor.
Bu sadece Tinder'in bir seçimi değil.
Meta, geçen ay telefonunuza yüklenmiş ancak henüz paylaşılmamış fotoğrafları tarayarak düzenleme önerileri sunan benzer bir özellik sundu. AI'nın kullanıcıların özel içeriklerini aktif olarak "görmesi", ürün tasarımı için varsayılan bir yaklaşım haline geliyor.
Yerel çeşitli kötü amaçlı yazılımlar, bu taktiği biliyorum.
Uygulamalar giderek daha fazla "Yapay Zeka, sizin için karar verir" şeklinde kolaylığı pazarlarken, kullanıcıların devrettiği şeyler gizlice yükseliyor. Sohbet geçmişlerinden, albümlere, tüm telefonunuzdaki yaşam izlerine kadar...
Bir ürün yöneticisinin toplantı odasında tasarladığı bir özellik, bir kaza ya da hata değildir ve düzeltilmesi gereken bir şey yoktur.
Bu, AI sınır sorularının en zor cevaplanan kısmı olabilir.
Son olarak bunları bir araya getirdiğimizde, endişe AI'nın kendi işini yok etmesinin henüz çok uzak olduğunu göreceksiniz.
AI'nin sizin yerinizi ne zaman alacağı belirsiz, ancak şu anda sizin habersizliğinizde birkaç karar almak bile size yeterince zorluk çıkarabilir.
Yetkisiz bir gönderi paylaşın, silmememi söylediğiniz birkaç e-postayı silin, kimseye göstermek istemediğiniz albümü gözden geçirin... Her biri ölümcül değil, ancak her biri biraz aşırı agresif bir otonom sürüş gibi:
Kendinizi hâlâ direksiyonu tutuyormuş gibi düşünüyorsunuz, ancak ayak altındaki gaz pedali tamamen sizin kontrolünüzde değil.
2026 yılında hâlâ AI hakkında konuşuluyorsa, belki de en çok ilgilenmem gereken şey, ne zaman süper zekâ haline geleceği değil, daha yakın ve daha spesifik bir sorun:
AI'nin ne yapabileceğini ve ne yapamayacağını kim karar veriyor? Bu çizgi, kimin tarafından çiziliyor?
