Hati Nurani Di Era Mesing Perang

Oleh Hery Nugroho

DI TENGAH perlombaan global membangun kecerdasan buatan (artificial intelligence-AI), kini mulai muncul satu kegamangan yang barangkali terdengar naif, sekaligus menggelitik. Penggunaan AI oleh militer dianggap sebagai perilaku yang “tidak sesuai dengan hati nurani”. Pernyataan itu datang dari Dario Amodei, pendiri dan CEO Anthropic, pengembang model AI Claude. Di tengah dunia yang semakin realistik dan (bahkan) sinis tentang teknologi dan kekuasaan, kata “hati nurani” tiba-tiba terasa seperti gema dari ruang moral yang sudah lama ditinggalkan.

Tetapi, justru di situlah episentrum dari pertanyaan: apakah teknologi secanggih AI masih memiliki ruang untuk pertimbangan moral? Sejak awal sejarahnya, teknologi hampir selalu menemukan jalan menuju militer. Penemuan mesiu, radar, nuklir, hingga internet—semuanya memiliki jalur yang bersinggungan dengan kepentingan pertahanan dan perang. Bahkan internet yang kini menjadi tulang punggung ekonomi digital juga berakar dari proyek militer Amerika Serikat, ARPANET. Dalam konteks ini, AI hanyalah segmen terbaru dari serangkaian cerita lama: teknologi yang menjanjikan efisiensi luar biasa sekaligus potensi destruktif yang sama besarnya.

AI membawa kemampuan analisis data dalam skala yang sebelumnya belum pernah ada. Ia mampu membaca citra satelit, memetakan pola pergerakan, memprediksi ancaman, bahkan membantu pengambilan keputusan strategis dalam hitungan detik. Bagi dunia militer modern, kemampuan seperti ini bukan sekadar keunggulan tambahan, melainkan potensi sebuah lompatan strategis. Tidak mengherankan jika banyak negara berlomba mengintegrasikan AI ke sistem pertahanannya.

Di titik inilah kegelisahan moral muncul. Ketika keputusan yang dulu membutuhkan pertimbangan manusia mulai dibantu (atau digantikan) oleh algoritma, lalu siapa yang sebenarnya harus bertanggung jawab atas konsekuensinya? Jika sebuah sistem AI salah membaca situasi dan memicu serangan yang keliru, siapakah yang disalahkan: mesin, programmer, atau komandan yang mempercayainya?

Hal inilah yang dimaksud oleh Amodei dengan “persoalan hati nurani”. Bukan sekadar soal teknologi, melainkan soal jarak moral antara tindakan dan akibatnya. Dalam perang tradisional, keputusan untuk menyerang adalah keputusan manusia yang sadar akan risikonya. Tetapi dalam sistem berbasis AI, keputusan itu bisa menjadi semakin abstrak, karena tersembunyi di balik model matematis, data, dan probabilitas.

Masalahnya, dunia tidak bergerak berdasarkan hati nurani semata. Ketika satu negara menahan diri karena alasan etika, negara lain mungkin justru melihatnya sebagai peluang strategis. Dalam geopolitik yang keras, teknologi jarang berhenti karena keraguan moral. Jika satu perusahaan atau satu negara memilih untuk membatasi AI demi alasan etika, bukan tidak mungkin pihak lain justru akan melangkah lebih jauh tanpa batas yang sama.

Di sinilah paradoksnya. Seruan moral seperti yang disampaikan Amodei terdengar mulia, tetapi sekaligus menghadapi realitas yang sangat keras, yaitu teknologi yang mampu mengubah keseimbangan kekuatan global hampir mustahil untuk sepenuhnya dijauhkan dari militer.

Namun demikian, pernyataan tentang “hati nurani” tidak sepenuhnya sia-sia. Ia berfungsi sebagai pengingat bahwa di balik setiap teknologi selalu ada pilihan bagi manusia. AI tidak lahir di ruang kosong, tetapi dirancang, dilatih, dan diterapkan oleh manusia yang memiliki nilai, kepentingan, dan tanggung jawab.

Dalam konteks itu, perdebatan tentang AI militer bukan sekadar soal boleh atau tidak boleh. Yang lebih penting adalah bagaimana menetapkan batas, sejauh mana otomatisasi boleh digunakan dalam keputusan yang menyangkut hidup dan mati. Banyak pakar keamanan global kini mulai mendorong prinsip human in the loop—bahwa keputusan penggunaan kekuatan mematikan tetap harus berada di tangan manusia.

Pertanyaannya kemudian meluas, apakah dunia masih mampu menyepakati batas moral bersama di tengah kompetisi teknologi yang semakin intens?

Sejarah menunjukkan bahwa umat manusia kadang baru menetapkan batas setelah menghadapi tragedi besar. Senjata kimia dilarang setelah Perang Dunia I. Senjata nuklir mulai dibatasi setelah peristiwa pilu di Hiroshima dan Nagasaki. Jika AI berkembang tanpa kerangka etika yang jelas, maka dunia mungkin menghadapi risiko yang sama—belajar melalui krisis.

Karena itu, ungkapan “tidak sesuai hati nurani” mungkin terdengar sederhana, tetapi ia sebenarnya membuka diskusi yang jauh lebih dalam. Ia memaksa kita bertanya kembali apakah teknologi akan sepenuhnya mengikuti logika kekuasaan, atau masih ada ruang bagi pertimbangan moral?

Di era mesin yang semakin cerdas, mungkin pertanyaan paling penting justru bukan tentang kecerdasan buatan itu sendiri. Melainkan tentang apakah manusia masih ingin mempertahankan hati nuraninya. ***

Hery Nugroho, alumni Pascasarjana Ekonomi UGM, peneliti pada Swasaba Research Initiative (SRI) Yogyakarta.

Avatar photo

Makpi Support

Articles: 878

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *