Anthropic Sözünden Döndü! – ShiftDelete.Net

Anthropic, yapay zeka güvenliği politikasını esnetti. Claude’un geliştiricisinden rekabet uğruna değişen güvenlik kurallarının detayları.

“`html

Claude’un arkasındaki yapay zeka şirketi Anthropic, Time dergisine verdiği röportajda güvenlik protokollerinde köklü bir değişim gerçekleştirdiğini açıkladı. Şirket, güvenlik önlemlerini önceden sağlamadan yeni yapay zeka modelleri eğitimine veya piyasaya sürümüne gitmeyeceği yönündeki ünlü taahhüdünü geri çektiğini resmi olarak duyurdu.

Anthropic Geri Adım Attı: Yapay Zeka Güvenliğinde Yeni Kurallar Belirleniyor

Öncesinde sektördeki rakiplerinden farklılaşmasını sağlayan bu katı politikayı değiştiren Anthropic, artık daha esnek bir yaklaşım benimseyecek. Şirket, yapay zeka geliştirme süreçlerini tamamen durdurmak yerine, yapacağı değerlendirmelere şeffaflık raporları ve güvenlik planları ekleyeceğini belirtti.

Anthropic, Claude, yapay zeka güvenliği, Sorumlu Ölçeklendirme Politikası, yapay zeka rekabeti

Yönetim, bu kararın ideolojik bir geri adım değil, yalnızca pragmatik bir yaklaşım olduğunu vurguluyor. Hızla değişen yapay zeka pazarındaki şiddetli ticaret yarışı ve jeopolitik baskılar, tek taraflı kısıtlamaların sürmesini mantıksız hale getirdi.

Rekabet Güvenliği Üstün Geldi: Anthropic Yapay Zeka Sınırlarını Genişletiyor

Kullanıcılar, Claude veya diğer yapay zeka araçlarını kullanırken herhangi bir değişiklik hissetmeyebilir. Ancak bu eğitim kurallarının arka planındaki değişiklikler, sistemin doğruluğundan dolandırıcılık riski ve kötüye kullanıma kadar birçok önemli noktayı belirliyor.

Anthropic, Claude, yapay zeka güvenliği, Sorumlu Ölçeklendirme Politikası, yapay zeka rekabeti

Anthropic, ürün çeşitliliği ve gelir sınıfında, OpenAI ve Google gibi büyük firmaları geride bırakarak oldukça hızlı bir şekilde büyüyor; hatta Super Bowl reklamlarında ChatGPT’ye atıfta bulunarak kendine özgü bir konum elde ediyor. Ancak, şirketin eski katı güvenlik kuralları, büyümenin önünde büyük bir engel teşkil ediyordu.

Bunun yanı sıra, ABD’de federal düzeyde yapay zeka yasalarının hala kesinleşmemesi, firmaları gönüllü kısıtlamalar ile rekabette hayatta kalma arasında zorlu bir seçim yapmaya itiyor.

RAIDS AI CEO’su Nik Kairinos, Anthropic’ın güvenlik sözüne son vermesinin bağımsız denetimlerin ve düzenlemelerin ne denli elzem olduğunu gösterdiğini savundu. Kairinos, şirketin kısa süre önce yapay zeka güvenlik yasalarını destekleyen siyasi figürlere 20 milyon dolar bağışta bulunmuş olmasının ironik olduğunu da dile getirdi.

Anthropic, anlamlı bir güvenlik analizi gerçekleştirmek için teknolojinin arka planda kalmak yerine, en ön safhalarda yer alması gerektiğini savunuyor. Peki, yapay zekanın hızla ilerlediği bu dönemde, şirketlerin kendi güvenlik kurallarını esnetmesi hakkında sizin düşünceleriniz neler? Teknolojik gelişime ayak uydurmak için bu tarz riskleri göze almak mı, yoksa daha sıkı güvenlik kurallarına sahip bir yapay zeka modelini mi tercih edersiniz?

“`