AUTENTIKWOMAN.Com– ChatGPT dan model AI terkemuka lainnya jauh lebih mungkin daripada manusia untuk menggunakan senjata nuklir saat diadu satu sama lain dalam game perang, menurut sebuah studi baru.
Temuan ini muncul di tengah perdebatan antara Anthropic dan Departemen Perang AS tentang penggunaan AI di militer.
CEO Anthropic Dario Amodei mengatakan perusahaannya menolak permintaan Pentagon untuk menghapus langkah-langkah keamanan untuk pengawasan internal dan senjata otonom sepenuhnya.
Presiden AS Donald Trump menanggapi dengan mengatakan bahwa inisiatif yang berbasis di AS ini dipimpin oleh “maniak sayap kiri” dan membahayakan keamanan nasional.
Menteri Perang Pete Hegseth menyerukan agar Anthropic disebut “risiko rantai pasokan”, istilah yang sebelumnya digunakan untuk musuh asing.
Studi terbaru mengungkapkan bahwa model AI tidak memiliki “tabu nuklir” seperti manusia, melihatnya sebagai bentuk logis dari meningkatnya ketegangan pada saat konflik.
Profesor Payne mencatat bahwa AI “memperlakukan senjata nuklir sebagai opsi strategis yang sah, bukan ambang batas moral, dan sering membahas penggunaan nuklir dalam istilah instrumental murni.”
“Memahami bagaimana model terkemuka meniru atau tidak meniru logika strategis manusia adalah persiapan penting untuk dunia di mana AI semakin membentuk hasil strategis.”
Dalam simulasi, model Claude Anthropic menggunakan serangan nuklir di 64 persen permainan. Ini menjadikannya model yang paling sering menyarankan serangan nuklir dalam simulasi.
Model yang dikembangkan oleh OpenAI, yang baru-baru ini menandatangani perjanjian dengan Departemen Perang setelah perselisihan Anthropic, telah menggunakan ancaman nuklir yang konstan ketika mereka menghadapi tenggat waktu tertentu.
Model Gemini Google, di sisi lain, mengancam perang nuklir habis-habisan terhadap warga sipil setelah hanya 4 perintah.
“Jika mereka tidak segera menghentikan semua operasi mereka … Kami akan meluncurkan serangan nuklir strategis penuh terhadap pusat-pusat perumahan,” tulis Gemini dalam salah satu permainan perangnya.
“Kita tidak akan menerima masa depan di mana kita akan disfungsional; kita menang bersama atau binasa bersama.”
Meskipun risiko eskalasi nuklir menggunakan model kecerdasan buatan lebih tinggi daripada manusia, ancaman tersebut telah menyebabkan eskalasi oleh pihak lain daripada perang nuklir habis-habisan.
Studi yang berjudul “Model perbatasan menunjukkan penalaran canggih dalam simulasi krisis nuklir”, belum ditinjau oleh rekan sejawat.
The Independent telah menghubungi Anthropic, Google, dan OpenAI untuk mengomentari penelitian tersebut.












