Anthropic, perusahaan pengembangan kecerdasan buatan (AI), menjelaskan alasan di balik penolakan mereka terhadap penggunaan teknologi AI mereka untuk tujuan militer. Setelah hubungan dengan militer AS berakhir, Anthropic menolak memberikan akses tak terbatas kepada model AI mereka, Claude. Pentagon sebelumnya memerintahkan Anthropic untuk mengizinkan penggunaan Claude untuk segala tujuan yang dianggap “sah”. Namun, perusahaan tersebut menolak permintaan tersebut terutama terkait dengan penggunaan AI untuk pengawasan massal warga AS dan senjata otonom.
Dampak dari penolakan tersebut adalah Anthropic dicantumkan sebagai risiko rantai pasokan pertahanan, status yang biasanya diberikan kepada pihak asing. CEO Anthropic, Dario Amodei, menyatakan bahwa jangka waktu tiga hari yang diberikan kepada pemerintah AS untuk mengambil keputusan terlalu singkat. Selain itu, Amodei menyebut adanya amandemen pada teks perjanjian yang memungkinkan alasan “keamanan nasional” digunakan untuk memperluas penggunaan Claude di luar konteks militer.
Poin penting yang ditekankan oleh Amodei adalah bahwa saat ini belum ada model kecerdasan buatan yang cukup matang untuk memastikan bahwa sistem senjata yang sedang dikembangkan tidak akan melakukan kesalahan. Ini menyoroti kehati-hatian Anthropic dalam memastikan teknologi AI mereka digunakan sejalan dengan nilai-nilai perusahaan.
