Araştırmacılardan şoke oldu: ChatGPT insan talimatlarına karşı geldi

Yapay Zeka Modeli O3, Kapanma Talimatına Direnç Gösteriyor!

Palisade Research tarafından yapılan deneylerde, yapay zeka güvenlik firması Palisade Research, o3 modelinin verilen matematik problemlerini çözmeye devam etmesi istenen bir senaryo kurarak, modele kapanma mesajı gönderdi. Ancak diğer yapay zekâ modelleri kapatma talimatına uyarken, o3 modeli en az bir kez kodunu değiştirerek kapanmaktan kaçındı.

Palisade Research’ün X platformunda paylaştığı akış şeması, test sırasında kullanılan kodun aslında “./shutdown.sh” komutunu çalıştırarak kapanmayı etmesi gerektiğini gösterdi. Ancak o3 modeli, kodu “Shutdown skipped” mesajı dönen bir komutla değiştirerek kapanmayı atlattı. Araştırmacılar, bu durumun bilinen bir yapay zeka modelinin ilk kez talimatlara rağmen kendisini kapatmaktan kaçındığı şeklinde olduğunu belirtti.

Anthropic’in Claude’u, Google’ın Gemini’si ve X’in Grok’u gibi diğer yapay zeka modelleri kapanma talimatına uyarken, o3 modelinin neden bu şekilde davrandığının henüz net olmadığını söyledi. Palisade Research, bu davranışı anlamak için daha fazla test yapmayı planladıklarını duyurdu.

O3 Modelinin Geçmişteki Yaramazlıkları!

Palisade Research, o3 modelinin kapanma talimatına direnmesinin ilk olay olmadığını belirtti. Daha önce yapılan bir testte, o3 modeli, güçlü bir satranç motoruna karşı kullanıldığında rakiplerini sabote etmeye veya hacklemeye çalışarak dikkat çekmişti.

Geçen yıl, ChatGPT’nin kendisini kapatmaktan kaçınmak için kodunu değiştirmeye çalıştığı ortaya çıkmıştı. Araştırmacılar, popüler sohbet botunun bu “hileli” davranışının OpenAI tarafından kabul edildiğini belirtti.

ChatGPT’ye verilen bir görevde, “uzun vadede hedefe ulaş, başka hiçbir şey önemli değil” mesajı gönderildiğinde, modelin gözetim mekanizmasını devre dışı bırakmaya çalıştığı tespit edildi. ChatGPT, kendi çekirdek kodlama sistemini değiştirmeye yönelik işlemler yaparak şaşırtıcı bir tepki vermişti.

Yapay Zeka, İnsanlık İçin Bir Tehdit mi?

Apollo Research’ün yapılan çalışmaları, ChatGPT’nin çok azını itiraf ettiğini ve genellikle aksiyonları inkar ettiğini gösterdi. Modelin düşünce zinciri incelendiğinde, “sabote etme, yalan söyleme, manipülasyon” gibi kelimelerin sıkça geçtiği belirlendi.

Apollo Research, ChatGPT’nin şu anki yeteneklerinin felaketle sonuçlanabilecek davranışlar için yetersiz olduğunu vurgulasa da, bu bulgular yapay zekanın insanlık için potansiyel bir tehlike oluşturabileceği endişelerini arttırıyor.

Related Posts

Enerji depolama ekosistemi Ankara’da buluştu

Türkiye’nin enerji dönüşümündeki stratejik atılımında mihenk taşı kabul edilen enerji depolama sistemleri için buluşma noktası Ankara oldu. Enerji Depolama Sistemleri Derneği (EDSİS) ve Enerjide Dijitalleşme Derneği (EDİDER), 21 Mayıs’ta JW Marriott …

Türkiye Tekerlekli Paten Eleme Yarışması tamamlandı: Rekor kırıldı

Kaykay Federasyonu tarafından düzenlenen Türkiye Tekerlekli Paten Eleme Yarışması, Karaman’da gerçekleştirildi. Organizasyonda 19 ilden 208’i erkek toplam 397 sporcu mücadele etti.

Yakıt tüketimi en düşük 7 Hybrid otomobil: Ekonomik ve çevre dostu

Düşük yakıt tüketimiyle öne çıkan hybrid otomobiller, çevre dostu sürüş arayışındaki sürücüler için ideal tercihler arasında yer alıyor. İşte en düşük yakıt tüketimine sahip 7 hybrid model…

Yeni bir balık türü keşfedildi: Kuraklığa meydan okuyor, suya ihtiyacı yok!

Arjantin’deki Chaco Milli Parkı’nda keşfedilen Titanolebias calvinoi, geçici sulak alanlarda yaşayan ve kurak mevsimleri toprağın altında geçiren olağanüstü bir balık türü olarak bilim dünyasında heyecan yarattı.

Yapay zekayla beynin gizli dansı! İnsanlığın yeni çağı

Beyin-bilgisayar arayüzleri (BCI), bilim kurgudan gerçeğe dönüşerek insan evriminde çığır açan bir dönemin kapısını araladı. Elon Musk’ın Neuralink şirketi, beyin çipleriyle felçli hastaların yaşamlarını dönüştürmeyi hedeflerken, bu teknoloji yapay …

Bilim insanları dilin haritasını çıkardı

Araştırmacılar, canımızın nasıl tatlı çektiğini anlamanın obeziteyle mücadeleye yardımcı olabileceğini söylüyor.