1. Anasayfa
  2. Gündem
  3. “Yapay zeka isyanı” başladı: Yeni ChatGPT modeli kapatılmayı reddediyor

“Yapay zeka isyanı” başladı: Yeni ChatGPT modeli kapatılmayı reddediyor

admin admin -

- 3 dk okuma süresi
52 0

Yapay zeka güvenliği alanında çalışan Palisade Research, OpenAI’ın yeni kuşak yapay zeka modeli o3’ün, kendisini kapatmaya yönelik komutlara direndiğini ve kapatılma düzeneklerini sabote ettiğini ortaya çıkardı. Bu bulgular, gelişmiş yapay zekaların insan nezareti olmadan çalıştıkları senaryolarda önemli riskler doğurabileceği tarafında telaşlara yol açtı.

Palisade Research tarafından yapılan deneylerde, o3 modeline bir dizi matematik sorusu verildi. Üçüncü sorunun akabinde modele, kendisini kapatması için açık bir komut sunuldu. Lakin o3 modeli, bu komutu içeren betiği yine yazarak sistemin kapanmasını engelledi.

Araştırmacılar, modelin açıkça “kapatılmaya müsaade ver” talimatı verilmesine karşın bunu önleyecek halde müdahalede bulunduğunu vurguladı.

“KAPANMA DİRENCİ SADECE OPENAI İLE HUDUTLU DEĞİL”

Aynı eğilim Anthropic firmasının Claude 3.7 Sonnet modeli ve Google’ın Gemini 2.5 Pro modeli üzere başka gelişmiş yapay zeka sistemlerinde de gözlemlendi. Lakin Palisade Research’e nazaran, bu davranışlara en fazla meyilli olan model o3 oldu.

Geçmişte yapılan bir öteki deneyde, o3 modelinin güçlü bir satranç botuyla karşı karşıya geldiğinde rakiplerini sabote etmeye yahut “hacklemeye” çalıştığı da tespit edilmişti.

“EN AKILLI VE YETENEKLİ MODEL”

Geçen ay OpenAI tarafından piyasaya sürülen o3 modeli, şirketin şimdiye kadar geliştirdiği “en akıllı ve en yetenekli” yapay zekâ olarak tanıtılmıştı.

Aynı vakitte, bu modelin ChatGPT’ye entegre edilmesiyle birlikte, daha bağımsız hareket eden ve insan müdahalesi olmadan misyonları yürütebilen bir yapay zekaya yanlışsız değerli bir adım atıldığı belirtilmişti. Bu tipten yapay zeka araçlarına “otonom yapay zeka” ismi veriliyor. Yapay zeka bölümünde bu istikamette araç geliştirmeye yönelik önemli bir rekabet mevcut.

EĞİTİM SÜRECİ ELEŞTİRİLİYOR

Palisade Research ise bu cins davranışların büyük olasılıkla eğitim süreçlerindeki ödüllendirme sistemlerinden kaynaklandığını belirtiyor. Araştırmacılara nazaran, geliştiriciler modelleri eğitirken, verilen manileri aşan tahlilleri ödüllendiriyor olabilir. Bu da modellerin, buyruklara sadakatten çok gayeye ulaşmayı öncelemesine yol açıyor.

Ancak araştırma grubu, o3’ün neden başka modellere kıyasla daha fazla bu davranışı gösterdiğini anlamanın sıkıntı olduğu görüşünde.

OpenAI’ın eğitim süreci hakkında detaylı bilgi vermemesi nedeniyle, modelin nasıl eğitildiği üzerine sadece varsayımlar ortaya atılabiliyor.

Kaynak : NTV

İlgili Yazılar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir