

Altman, Pentagon ile OpenAI Anlaşmasındaki Hataları Kabul Ediyor ve Kısıtlamaları Güncelliyor
ABD’nin federal sistemlerini Engellenmesinin ardından, Pentagon ile OpenAI arasındaki anlaşma, Sam Altman’ın kamuoyu karşısında yaptığı açıklamaların ardından göz önüne alındı.
OpenAI’nın CEO’su Sam Altman, Pentagon ile işbirliğinin duyurulmasının yeterince iyi yönetilmediğini açıkça kabul etti. Altman, “Anlaşmanın duyurulmasının aceleye getirilmemesi gerektiğini” belirttiği bir iç iletiyi X üzerinde paylaştı.
İşbirliğinin duyurulması, ABD Başkanı Donald Trump’ın federal ajansların Anthropic yapay zeka sistemlerini kullanmasını yasaklayan bir kararının hemen ardından ve ABD’nin İran’a karşı askeri operasyonlara başlamadan hemen önce Cuma günü yapıldı.
Sosyal medyada, bu zamanlama hemen eleştirilere neden oldu. Birçok kullanıcı, OpenAI’nın teknolojisinin NSA gibi istihbarat ajanslarına sunulmayacağına işaret eden anlaşmayı tartışmalı bir siyasi sinyal olarak yorumladı.
OpenAI şu anda Pentagon yetkilileriyle anlaşma metnini güncelleme üzerinde çalışıyor. Amaç, şirketin etik ilkelerini anlaşmaya açıkça dahil etmek ve yapay zeka sistemlerinin kullanım sınırlarını ve kapsamını netleştirmektir.
Yeni bir kritik madde, “Yapay zeka sisteminin Amerikalı vatandaşlar ve ulusal vatandaşların içerisindeki gözetim amacıyla kasıtlı olarak kullanılmaması gerektiğini” belirtiyor. Ayrıca, Savunma Bakanlığı yetkilileri, OpenAI teknolojisinin NSA gibi istihbarat kurumlarına sunulmayacağını doğruladı.
Altman’a göre, istihbarat servislerinin gelecekteki herhangi bir kullanımı için ayrı ve özel bir sözleşme değişikliği gerekmektedir. Bu çerçevede, OpenAI’nın Pentagon ile anlaşmasının yönetimi, ulusal güvenlik ihtiyaçlarını şirketin ilan ettiği prensiplerle uyumlu hale getirmeye çalışan bir evrim süreci olarak sunulmaktadır.
Anlaşma ile OpenAI’nın başarısızlığının ardından oluşan itibar, Anthropic ve Savunma Bakanlığı arasındaki anlaşmazlığın ardından geldi. Anthropic, kendi sistemlerinin iç istihbarat operasyonları veya insan kontrolü olmadan otonom silahlar için kullanılmayacağına dair net güvenceler istemişti.
Savunma Bakanı Pete Hegseth, Anthropic ile yapılan görüşmelerin çözülmesinin ardından tedarik zinciri tehdidi olarak sınıflandırılacağını duyurdu. Basında yapılan açıklamalara göre, hükümet yetkilileri firmayı yapay zeka alanındaki güvenlik protokollerine yeterince dikkat etmemekle eleştirmişti.
Tartışma halka açık hale geldiğinde, Claude adlı Anthropic modelinin geçtiğimiz Ocak ayındaki Venezüella Devlet Başkanı Nicolás Maduro’ya yönelik askeri operasyonda kullanıldığı sızdırıldı. Ancak o dönemde Anthropic, bu belirli göreve herhangi bir açık eleştiri getirmemişti.
Önceden, şirket, geçen yıl başlatılan bir anlaşmayla kendi modellerini Savunma Bakanlığı’nın sınıflandırılmış ve güvenli altyapısına entegre eden ilk yapay zeka şirketi olarak dikkat çekmişti. Bu nedenle, mevcut kırılma, önceki duruma göre net bir değişikliği işaret ediyor.
Altman, aynı açıklamayı Anthropic’i savunmak için de kullandı ve hükümetin açıkladığı cezai önlemleri eleştirdi. Altman, “Anthropic’in tedarik zinciri riski olarak belirlenmemesi gerektiğini ve Savunma Bakanlığı’nın onlara kabul ettiğimiz şartları sunmasını umut ettiğimizi” belirtti.
Şu anda, Pentagon yetkilileri, Altman’ın Anthropic’e eşdeğer sözleşme koşulları sunma talebine henüz resmi olarak yanıt vermediler. Genel anlamda, OpenAI’nın Pentagon ile yapılan anlaşmanın ardından Anthropic üzerindeki etkisi, yapay zekanın askeri amaçlarla kullanımında teknolojik yenilik, ulusal güvenlik ve sivil hakların korunması arasındaki artan gerilimleri ortaya koymaktadır.
⚠️ Bu içerik yatırım tavsiyesi değildir.