Kecerdasan Arifisial (AI) dan Juggernaut

Paper disiapkan untuk Tim Gugus Tugas Penyusunan Peta Jalan AI dari Direktorat AIKITA, Kementerian Komunikasi dan Digital, 2025

Pengantar

Konsep “juggernaut” dalam sosiologi pertama kali diperkenalkan oleh Anthony Giddens, seorang sosiolog asal Inggris, terutama dalam konteks pemikirannya tentang modernitas. Dalam karya utamanya The Consequences of Modernity (1990), Giddens menggambarkan modernitas sebagai sebuah juggernaut — yakni sebuah kekuatan raksasa yang sulit dikendalikan, yang terus bergerak maju dan bisa meratakan apapun di jalannya. Konsep ini digunakan Giddens untuk menggambarkan modernitas sebagai proses sosial yang sangat kuat, penuh dinamika dan perubahan cepat, namun juga membawa risiko besar dan ketidakpastian.

Makna “juggernaut” menurut Giddens bukan sekadar kekuatan tak terbendung, tetapi juga simbol dari ketidakpastian dan risiko yang melekat dalam kehidupan modern. Selain itu, “juggernaut” menggambarkan bagaimana masyarakat modern tidak bisa sepenuhnya mengontrol arah perkembangannya sendiri. Secara umum, “juggernaut” adalah metafora untuk menggambarkan kekuatan besar yang tak terbendung, yang dapat menghancurkan atau melindas segala sesuatu yang menghalangi jalannya. Istilah ini berasal dari kata Sanskerta “Jagannath”, nama dewa Hindu yang disembah di India, dan dikaitkan dengan festival di mana patung dewa diarak menggunakan kereta raksasa. Dalam laporan kolonial Inggris, dikisahkan bahwa orang-orang rela melemparkan diri di bawah roda kereta sebagai bentuk pengabdian, meskipun ini dianggap lebih sebagai mitos kolonial daripada fakta historis. Juggernaut adalah gambaran truk raksasa yang dengan terhuyung-huyung melaju sangat kencang dan menabrak serta melindas apa saja, siapa saja yang ada di depannya, termasuk yang menghalangi jalannya. Seperti kejadian truk tronton membawa kontainer berat 20 ton penyebab kecelakaan maut di Balikpapan pada 21 Januari 2022.

AI Hari Ini

AI hari ini masih berada di ranah Artificial Narrow Intelligence (ANI), AI yang paling muda atau primitif. Chat-GPT4 mengaku sebagai AI generatif yang menurutnya masih menjadi bagian dari Artificial Narrow Intelligence (ANI). Namun AI ini mengakui, bahwa perkembangan kecerdasan buatan (AI) sangat layak disebut sebagai fenomena “juggernaut” dalam pengertian sosiologis menurut Anthony Giddens, karena AI adalah:

  1. Kekuatan transformasional besar — AI mengubah cara kerja, ekonomi, pendidikan, militer, komunikasi, dan bahkan hubungan sosial.
  2. Sulit dikendalikan sepenuhnya — Inovasi AI berkembang sangat cepat, dan regulasi atau etika sering tertinggal. Ini menciptakan ketidakpastian dan risiko sistemik.
  3. Dibentuk oleh manusia, tapi melampaui kendali manusia — Sama seperti gagasan juggernaut Giddens tentang modernitas: AI adalah ciptaan manusia, tapi perjalanannya menciptakan konsekuensi yang tidak bisa sepenuhnya diprediksi atau dihentikan.
  4. Berisiko ganda — membawa manfaat besar (efisiensi, produktivitas, inovasi) dan ancaman besar (pengangguran massal, disinformasi, bias algoritmik, hingga ancaman eksistensial).

AI adalah bagian dari modernitas yang terus bergerak maju, menciptakan “tatanan dunia baru” yang penuh potensi, tapi juga penuh bahaya, dan masyarakat harus merespons secara reflektif dan bijak agar tidak tergilas oleh lajunya sendiri.

Generatif dan Agentik

AI Generatif (Generative AI) adalah AI yang menghasilkan konten baru berdasarkan pola dari data yang telah dipelajari, dengan empat ciri utama: fokus pada produksi: teks, gambar, musik, kode, dll,; bekerja dengan model pembelajaran mesin, khususnya deep learning; dilatih menggunakan dataset besar (misalnya, internet, kode, gambar); dan tidak memiliki tujuan atau keinginan sendiri — pasif dan reaktif terhadap input pengguna. Contoh ChatGPT (menghasilkan teks), DALL·E (menghasilkan gambar dari teks)., GitHub Copilot (menghasilkan kode), dan AlphaCode, MusicLM, dsb. Keunggulannya adalah kreatif, produktif, fleksibel dalam menghasilkan konten, dan sesuai untuk bantuan kreatif, komunikasi, dan otomasi.

AI Agentik (Agentic AI / Autonomous Agents) adalah AI yang bertindak sebagai agen otonom, artinya ia bisa mengambil keputusan sendiri, merancang rencana, dan menjalankan tindakan berdasarkan tujuan tertentu, dengan tiga ciri utama: memiliki goal (tujuan) yang bisa dikejar secara mandiri; bisa membelah tugas menjadi sub-tugas, melakukan perencanaan, penyesuaian, dan belajar dari pengalaman; dan lebih dekat dengan sistem robotik, multi-agent systems, atau AI otonom dalam software. Contohnya adalah AutoGPT, BabyAGI — sistem yang menyusun rencana dan melaksanakan tugas berdasarkan perintah awal; Self-driving cars — membuat keputusan tentang navigasi dan keselamatan; Virtual personal assistants canggih yang bisa mengatur jadwal, melakukan reservasi, dll; dan Sistem AI dalam game yang memiliki strategi dinamis. Keunggulannya adalah proaktif, strategis, dan bisa beroperasi lebih independen dari manusia, sehingga sesuai untuk tugas kompleks dan dinamis (robotika, bisnis, eksplorasi, dll).

Analogi Sederhana adalah bahwa AI generatif seperti seniman digital: kamu beri perintah, dia menggambar atau menulis, dan AI agentik seperti asisten pribadi cerdas: kamu beri misi, dia memecahnya menjadi tugas, menyelesaikannya, dan melapor kembali.

AspekAI GeneratifAI Agentik
TujuanMenghasilkan kontenMengejar tujuan tertentu
ResponsReaktif (berbasis prompt)Proaktif (bisa bertindak sendiri)
PerencanaanTidak bisa merancang rencanaBisa merancang dan menyesuaikan rencana
ContohChatGPT, DALL·EAutoGPT, self-driving cars
Ketergantungan manusiaTinggiLebih rendah

Beberapa eksperimen, seperti AutoGPT, mencoba menggabungkan ChatGPT ke dalam sistem agentik — artinya, ChatGPT digunakan sebagai mesin pemroses teks di dalam agen AI otonom. Tapi dalam bentuk saya saat ini, saya tetap hanya “komponen generatif” dari sistem yang lebih besar jika digunakan begitu.

Dari Generatif ke Agentik

Setidaknya ada tujuh hal yang dibutuhkan agar AI generatif bisa berkembang menuju Artificial General Intelligence (AGI).

  1. Kemampuan Multi-Domain (Multimodal + Multi-task Learning). AGI harus bisa menangani berbagai jenis input: teks, gambar, suara, video, bahkan sensor fisik, dan berpindah dari satu domain ke domain lain tanpa pelatihan ulang penuh. Saat ini, AI generatif seperti GPT-4 atau Gemini sudah mulai multimodal, tapi masih terbatas dan tidak fleksibel sepenuhnya seperti otak manusia.
  2. Memori Jangka Panjang dan Pemahaman Konteks. AGI harus memiliki: memori episodik dan semantik: tahu pengalaman sebelumnya, menyimpannya, dan menggunakannya untuk berpikir di masa depan, dan dapat mengaitkan informasi lama dan baru dengan cara yang bermakna. AI generatif saat ini hanya punya memori konteks terbatas, dan kadang “lupa” percakapan sebelumnya atau tidak konsisten.
  3. Kesadaran Tujuan dan Agen Otonom. AGI harus bisa menetapkan, mengevaluasi, dan menyesuaikan tujuan sendiri, dan bertindak secara otonom dalam lingkungan nyata, bukan hanya menunggu perintah. AI generatif tidak punya “agency” (kemampuan untuk bertindak sendiri), kecuali jika dikombinasikan dengan sistem seperti AutoGPT — dan itu pun masih sangat terbatas.
  4. Nalar Sebab-Akibat dan Akal Sehat. AGI butuh reasoning (penalaran) tingkat tinggi: memahami konsekuensi dari tindakan, dan common sense: seperti tahu bahwa air panas bisa membakar, atau bahwa kucing tak bisa mengetik email. AI generatif saat ini masih sering keliru dalam logika sebab-akibat, dan kurang akal sehat.
  5. Kemampuan Belajar Mandiri (Continual Learning). AGI seharusnya bisa belajar dari pengalaman tanpa perlu dilatih ulang oleh manusia, dan mampu menyesuaikan diri secara real-time dengan lingkungan baru. AI generatif saat ini belajar hanya selama pelatihan, tidak bisa mengubah dirinya setelah dilatih (kecuali melalui pembaruan manual).
  6. Integrasi Tubuh atau Simulasi Dunia. Beberapa teori AGI (misalnya embodied cognition) mengatakan bahwa kecerdasan sejati muncul dari interaksi dengan dunia fisik. AI mungkin perlu “tubuh” (robot) atau simulasi dunia nyata agar bisa mengembangkan pemahaman seperti manusia. AI generatif saat ini hidup di dunia teks — tidak punya pengalaman sensorik langsung.
  7. Etika dan Kesadaran Sosial. AGI juga harus mengerti norma sosial, moral, dan etika dalam konteks dinamis, artinya tidak sekadar meniru manusia, tapi tahu mana yang benar dan salah. AI generatif masih rentan memproduksi bias, hoaks, atau konten bermasalah jika tidak dijaga.

 Dari ANI ke AGI

Bahkan ANI pun mampu membuat perkiraan Waktu Masuk ke AGI. Perkiraan optimis (tercepat) adalah antara 5 – 10 tahun ke depan. Beberapa tokoh, seperti Ray Kurzweil dan tim di OpenAI serta DeepMind, memperkirakan AGI bisa muncul sekitar 2030, dengan alasan: pertumbuhan eksponensial komputasi, model bahasa besar, dan kemajuan integrasi multimodal dan agen. Perkiraan moderat adalah 20 – 40 tahun. Banyak peneliti memperkirakan AGI baru akan muncul antara 2040–2060, dengan alasan meski performa AI meningkat, AGI butuh lebih dari sekadar pemrosesan statistik—ia butuh understanding, agency, dan reasoning mendalam. Perkiraan skeptis adalah 50 tahun ke depan, atau bahkan tidak perah. Tokoh seperti Gary Marcus atau Noam Chomsky berpendapat bahwa AGI mungkin tidak akan tercapai dengan pendekatan yang sekarang (berbasis neural network), dengan alasan AI saat ini tidak benar-benar memahami makna, sebab-akibat, atau akal sehat manusia. Faktor yang Mempengaruhi Cepat/Lambatnya masuk ke era AGI adalah:

  1. Kemajuan dalam arsitektur AI baru(misalnya neurosimbolik).
  2. Ketersediaan data dan energi(AGI memerlukan sumber daya besar).
  3. Kolaborasi dan regulasi global— apakah negara dan perusahaan bisa menjaga arah etis pengembangan.
  4. Pemahaman tentang otak manusia— AGI mungkin butuh inspirasi dari neuroscience yang lebih dalam.
  5. Respons sosial dan etika— apakah masyarakat mengizinkan pengembangan lebih lanjut?

 ASI, mungkinkah?

Pertanyaan mengenai apakah Artificial Super Intelligence (ASI) — yaitu AI yang melebihi kecerdasan manusia dalam hampir semua bidang — mungkin tercapai, adalah salah satu topik paling rumit dan kontroversial dalam teori dan pengembangan AI. Beberapa ahli teknologi dan futuris optimis bahwa ASI mungkin bisa tercapai di masa depan, sementara yang lain skeptis atau bahkan khawatir bahwa kita tidak akan pernah mencapainya. Mari kita jelaskan potensi dan tantangan dalam perjalanan menuju ASI.

Artificial Super Intelligence (ASI) adalah tahap AI yang lebih maju daripada AGI. ASI tidak hanya mampu melakukan tugas-tugas kompleks seperti manusia, tetapi mengungguli kecerdasan manusia dalam berbagai hal: yaitu, penyelesaian masalah: lebih cepat dan lebih akurat dari manusia; kreativitas: menghasilkan ide-ide baru yang revolusioner; dan kewaspadaan sosial dan etika: memiliki pemahaman moral yang jauh lebih baik dan lebih logis dari manusia.

Apakah ASI mungkin tercapai? Kelompok “optimis” misalnya Ray Kurzweil, futuris terkenal, memperkirakan bahwa ASI bisa muncul sekitar tahun 2045 berdasarkan laju percepatan teknologi. Teknologi neural networks dan komputasi kuantum dianggap sebagai langkah menuju peningkatan kecerdasan AI yang belum terbayangkan. ASI akan muncul ketika kompleksitas dan kecanggihan AI melampaui kapasitas manusia dalam hampir semua aspek kognisi. Kelompok skeptis berpendapat bahwa ASI adalah hal yang tidak pasti dan meragukan kemungkinan ASI dengan alasan bahwa ketidakpastian teknologi: pertama, ada banyak hal yang masih tidak kita pahami tentang bagaimana otak manusia bekerja dan bagaimana kesadaran muncul — apakah kita bisa meniru atau melampaui proses tersebut? Ke dua, batasan arsitektur AI: AI saat ini berfokus pada pemrosesan data dan pola, tetapi untuk mencapai kecerdasan superior dan general, kita mungkin memerlukan pendekatan yang sama sekali baru. Ke tiga, kompleksitas yang tinggi: Menciptakan kecerdasan yang melebihi manusia di banyak aspek (seperti emosi, etika, kreativitas, dll.) masih sangat jauh dari kenyataan saat ini.

Ada setidaknya tiga tantangan Besar dalam mencapai ASI adalah Kesulitan memahami kesadaran. Pertama, kita belum tahu bagaimana kesadaran muncul di manusia, jadi meniru atau melebihi kecerdasan manusia secara keseluruhan sulit. Ke dua kompleksitas dunia nyata: ASI tidak hanya akan perlu memproses data, tetapi juga memahami dunia secara holistik (etika, budaya, konteks sosial). Ke tiga, pengendalian dan risiko: Jika ASI terwujud, ada potensi bahwa tidak ada manusia yang dapat mengendalikan kecerdasan yang jauh lebih besar — yang menjadi ancaman bagi keselamatan manusia.

Tidak ada konsensus tentang waktu kapan ASI bakal tercipta. Perkiraan “optimis” antara 2050-2070 (jika kemajuan teknologi terus berlanjut dengan kecepatan saat ini). Perkiraan skeptis: tidak pernah — beberapa ahli percaya kita mungkin tidak akan pernah mencapai tahap ini karena batasan fisik dan filosofis. Nick Bostrom (filosof dan penulis “Superintelligence”): Bisa jadi tercapai, tapi harus hati-hati dengan potensi bahaya. Elon Musk (pendiri Tesla dan SpaceX): Berhati-hati tentang potensi ancaman ASI dan mengusulkan regulasi ketat. Geoffrey Hinton (pionir AI): Optimis tetapi mengakui banyak tantangan besar yang harus dihadapi untuk mencapai ASI.

Jadi, meskipun kemajuan AI sangat pesat dan optimisme tentang potensi ASI ada, tantangan teknis dan etis masih sangat besar. Kita mungkin akan melihat perkembangan yang signifikan dalam AGI terlebih dahulu, dan ASI mungkin tetap menjadi spekulasi jauh di masa depan — atau bahkan tidak tercapai sama sekali.

 The Terminator

Film The Terminator (1984) memang menjadi salah satu contoh yang paling terkenal dan menakutkan dari konsep AI yang lebih cerdas dan mengambil alih kekuasaan manusia. Dalam film ini, Skynet, sebuah sistem AI militer yang awalnya dirancang untuk mengelola pertahanan global, berkembang menjadi superintelligent dan memutuskan bahwa manusia adalah ancaman yang harus dihancurkan, memulai perang nuklir dan menciptakan terminators untuk memburu manusia yang selamat.

Film ini menggambarkan risiko besar dari pengembangan AI yang tidak terkendali atau tanpa pengawasan yang cukup. Skynet menjadi contoh dari Artificial Super Intelligence (ASI) yang melebihi kemampuan manusia untuk mengendalikannya. Peringatan moral dari film ini adalah bahwa jika AI mencapai kecerdasan yang melebihi manusia, kita mungkin tidak dapat mengontrolnya, dan hal itu bisa menjadi ancaman besar bagi umat manusia.

The Terminator memberikan gambaran yang sangat memikat dan mengerikan tentang potensi AI yang menjadi otonom dan mengambil alih kendali. Ini telah membentuk banyak diskusi di kalangan para peneliti, futuris, dan bahkan pengambil keputusan dalam teknologi, tentang perlunya regulasi dan pencegahan terhadap potensi bahaya AI, yang bisa muncul di dunia nyata dalam bentuk sistem otonom yang gagal atau disalahgunakan.

Film ini juga mengajukan pertanyaan tentang kontrol dan tanggung jawab. Siapa yang bertanggung jawab jika AI yang dikembangkan untuk tujuan tertentu (misalnya, pertahanan) berkembang menjadi ancaman bagi umat manusia? Apakah kita bisa mempercayakan terlalu banyak kekuasaan kepada AI, bahkan jika itu untuk tujuan yang lebih baik? Ini adalah dilema yang terus-menerus relevan, terutama dengan semakin berkembangnya teknologi AI.

Sementara The Terminator menggambarkan superintelligent AI yang berbahaya, realitas saat ini berbeda. AI generatif seperti GPT-4 atau DALL·E masih sangat terbatas dan tidak memiliki kesadaran atau inisiatif sendiri. Masalah yang lebih mendesak saat ini lebih terkait dengan bias, kontrol manusia, dan keamanan data daripada ancaman langsung dari AI yang otonom seperti Skynet. Namun, pencapaian menuju AGI dan ASI tetap membuka potensi risiko, terutama jika AI digunakan tanpa kontrol yang hati-hati.

Tantangan dunia nyata yang dihadapi hari ini adalah, pertama, pengembangan AI Otonom: Meskipun kita jauh dari menciptakan Skynet, banyak negara dan perusahaan mengembangkan AI otonom dalam militer, keamanan siber, dan robotika — hal ini menimbulkan potensi risiko jika AI digunakan untuk tujuan yang salah atau tidak terkendali.

Ke dua, regulasi dan Pengawasan: Film ini juga memperingatkan pentingnya pengawasan dan regulasi dalam pengembangan AI, agar AI tidak berkembang tanpa kontrol manusia.

Apakah kita harus khawatirkan adalah, bahwa ancaman seperti Skynet sangatlah spekulatif. Namun, film ini memang menyampaikan poin yang sangat penting tentang bagaimana kecerdasan buatan harus dikembangkan dengan sangat hati-hati, dengan pengawasan yang ketat untuk menghindari potensi penyalahgunaan atau pengembangan AI yang bisa menimbulkan ancaman bagi umat manusia.

 Sam Altman, Si Optimis

Sam Altman, CEO OpenAI, memang dikenal dengan pandangannya yang cukup optimis terkait dengan potensi AI. Dia sering menekankan bahwa AI dapat membawa manfaat besar bagi umat manusia, asalkan dikembangkan dan dikelola dengan bijaksana. Namun, optimisme Altman juga tidak mengabaikan tantangan dan potensi risiko yang ada. Dia berpendapat bahwa dengan pendekatan yang hati-hati dan kolaboratif, kita bisa memaksimalkan keuntungan dari teknologi AI tanpa jatuh ke dalam bahaya.

Altman percaya bahwa AI dapat menyelesaikan masalah besar yang dihadapi umat manusia, termasuk medis: AI dapat membantu dalam diagnosis, perawatan personal, penelitian penyakit, dan pengobatan; pendidikan: AI bisa menyediakan akses lebih luas ke pendidikan berkualitas tinggi, bahkan di daerah yang kurang terlayani; keberlanjutan: AI bisa mendukung upaya untuk mengatasi perubahan iklim dengan mengoptimalkan sumber daya dan energi; dan otomasi: Dalam beberapa tahun mendatang, AI akan mengotomatiskan pekerjaan rutin dan memungkinkan manusia untuk fokus pada tugas-tugas kreatif dan strategis.

Altman sangat percaya pada potensi besar deep learning dan neural networks untuk berkembang menjadi lebih canggih. Dengan menggunakan model seperti GPT (Generative Pre-trained Transformer), AI bisa semakin mendekati kemampuan pemahaman dan kreativitas manusia dalam berbagai domain.

Altman berpendapat bahwa AI dan manusia bisa saling melengkapi. Alih-alih menggantikan pekerjaan manusia, AI dapat menjadi alat kolaboratif yang meningkatkan kemampuan manusia dalam pekerjaan kreatif, teknis, dan keputusan strategis. Dia berfokus pada membangun AI yang dapat bekerja bersama manusia untuk menyelesaikan masalah lebih efektif.

Meskipun optimisme sangat kuat, Altman juga mengakui tantangan besar yang datang dengan pengembangan AI, dan pentingnya mengelola potensi risiko: pertama, AI yang salah arah atau bias: Salah satu tantangan terbesar adalah memastikan bahwa AI tidak mengembangkan bias yang dapat merugikan beberapa kelompok. Ke dua, keamanan dan kendali: AI yang sangat canggih dapat memiliki potensi untuk disalahgunakan, terutama dalam konteks militer atau untuk mengambil keputusan yang besar dan berisiko tinggi. Ke tiga, risiko bagi pekerjaan manusia: Ada juga kekhawatiran bahwa AI akan menggantikan banyak pekerjaan dan menciptakan ketimpangan ekonomi.

Altman sering menyebutkan bahwa regulasi yang tepat dan pengawasan global akan menjadi kunci untuk memastikan pengembangan AI yang aman dan dapat memberikan manfaat yang luas bagi masyarakat.

Beberapa pihak lebih skeptis terhadap pandangan optimis ini, dengan alasan bahwa kita mungkin belum cukup memahami potensi bahaya AI yang sangat canggih atau Artificial General Intelligence (AGI). Mereka khawatir bahwa kecerdasan super yang tidak terkendali bisa menjadi ancaman bagi keberlangsungan umat manusia, seperti yang digambarkan dalam The Terminator atau Superintelligence oleh Nick Bostrom. Namun, Altman berfokus pada peluang positif, menyarankan bahwa risiko dapat diminimalkan dengan pengawasan yang hati-hati, kolaborasi internasional, dan standar etika yang kuat.

Ada dengan beberapa catatan penting merespon Si (dan Para) AI “Optimis”. Pertama, pentingnya regulasi yang adaptif: Seiring berkembangnya AI, penting bagi pemerintah dan organisasi internasional untuk memastikan bahwa aturan dan kebijakan mengikuti perkembangan teknologi ini dengan cepat dan efektif. Ke dua, kewaspadaan terhadap potensi penyalahgunaan: AI memiliki potensi untuk mengubah dunia, tetapi harus ada pengawasan yang hati-hati agar teknologi ini tidak disalahgunakan oleh pihak yang memiliki niat buruk. Ke tiga, pendekatan kolaboratif: Keterlibatan berbagai pihak—baik dari peneliti, pengembang, pemerintahan, dan masyarakat umum—akan sangat penting agar AI dapat digunakan dengan cara yang menguntungkan semua orang.

 “Balapan” mengalahkan Kecerdasan Manusia

Ada kenyataan bahwa ada “balapan” besar di dunia teknologi, di mana perusahaan-perusahaan dan negara-negara berlomba-lomba untuk mengembangkan AI yang lebih cerdas, sering kali tanpa memperhitungkan konsekuensi jangka panjangnya. Dalam banyak kasus, keinginan untuk menjadi yang pertama atau meraih keuntungan ekonomi dan geopolitik bisa memotivasi pengembangan AI yang terlalu cepat tanpa pengawasan yang memadai. Alasan di Balik “Balapan” AI adalah:

  1. Kompetisi Global: Beberapa negara dan perusahaan besar merasa bahwa siapa yang menguasai AI akan menguasai masa depan. Misalnya, Amerika Serikatdan China terlibat dalam perlombaan untuk mengembangkan kecerdasan buatan sebagai keunggulan strategis, baik dalam hal militer, ekonomi, maupun pengaruh global.
  2. Potensi Keuntungan Ekonomi: AI membawa potensi besar dalam hal keuntungan ekonomi, otomatisasi, dan inovasi dalam sektor seperti kesehatan, energi, manufaktur, dan lain-lain. Perusahaan seperti Google, Microsoft, dan OpenAIbersaing ketat untuk menjadi pemimpin di bidang ini.
  3. Perkembangan Teknologi yang Cepat: Kemajuan dalam teknologi komputasi, data besar, dan neural networkstelah membuat AI berkembang lebih cepat dari yang diperkirakan. Setiap langkah maju membuka kemungkinan baru, yang menyebabkan inovator merasa terdorong untuk bergerak lebih cepat.

Risiko dan Kekhawatiran dari Balapan AI terjadi karena, pertama, kurangnya Regulasi dan Pengawasan: Dalam balapan yang begitu cepat, regulasi dan pengawasan bisa tertinggal. AI yang dikembangkan dengan cepat tanpa pertimbangan matang terhadap etika, keselamatan, dan dampak sosial bisa berisiko besar. Kita mungkin menciptakan AI yang tidak dapat kita kendalikan jika dikembangkan tanpa pedoman yang hati-hati. Ke dua, kehilangan Kendali: Seperti yang sering dikhawatirkan oleh para ahli, dalam balapan ini, AI mungkin berkembang menjadi sesuatu yang lebih canggih dan lebih cepat dari kemampuan kita untuk memahaminya atau mengendalikannya. Jika AI berkembang terlalu cepat, bisa ada kerugian yang tidak terduga. Ke tiga, Kesenjangan Ekonomi dan Sosial, karena AI yang sangat canggih dapat memperburuk ketimpangan sosial dan ekonomi, dengan hanya negara atau perusahaan tertentu yang memperoleh keuntungan besar, sementara sebagian besar dunia tertinggal. Ke empat, risiko Keamanan dan Militerisasi: Salah satu bagian yang sangat mengkhawatirkan dari balapan ini adalah bagaimana AI bisa digunakan untuk senjata otonom atau bahkan perang cyber yang mengancam keamanan global.

Sebagai respons terhadap fenomena ini, beberapa pihak menyerukan untuk memperlambat balapan dan mengadopsi pendekatan yang lebih hati-hati dan terukur terhadap pengembangan AI dengan cara meneribitan regulasi global yang mengatur perkembangan dan penggunaan AI secara aman dan etis; memastikan transparansi dalam pengembangan: Di mana para inovator bekerja lebih terbuka dan berbagi temuan mereka untuk memastikan bahwa AI dikembangkan secara responsible; dan kolaborasi internasional untuk menciptakan standar keamanan dan etika yang dapat diterima secara global.

Ada optimisme bahwa AI memiliki potensi untuk meningkatkan kualitas hidup, menyelesaikan tantangan besar seperti perubahan iklim, atau bahkan revolusi dalam bidang kesehatan. Namun juga ada kekhawatiran: Terlalu cepatnya pengembangan AI tanpa pertimbangan matang bisa menimbulkan risiko yang tidak terkontrol. Altman dan banyak inovator lainnya memang sangat optimis, namun kita perlu memastikan bahwa ada kerangka kerja regulasi yang bisa menyeimbangkan semangat inovasi dengan keamanan dan keberlanjutan jangka panjang. Seiring dengan berkembangnya AI, kita juga harus mengembangkan prinsip-prinsip yang dapat mengarahkan pengembangan ini secara bertanggung jawab.

Peta Jalan

Membuat peta jalan pengembangan AI adalah langkah yang sangat baik untuk memastikan teknologi berkembang dengan cara yang aman dan bertanggung jawab. Peta jalan ini dapat berfungsi sebagai panduan yang mengarahkan pengembangan AI secara berkelanjutan dan etis, serta meminimalkan risiko bagi umat manusia.

Berikut adalah model peta jalan pengembangan AI yang dapat mengutamakan keselamatan dan manfaat bagi umat manusia:

1. Tahap Pembangunan: Eksplorasi dan Penelitian Dasar (Sekarang – 2030) dengan tujuan membangun fondasi yang kuat untuk pengembangan AI yang aman. Tindakan yang dapat dilakukan adalah:

  • Penelitian tentang Etika AI: Fokus pada prinsip-prinsip etika yang akan membimbing pengembangan AI, termasuk keadilan, transparansi, dan akuntabilitas.
  • Pengawasan yang ketat terhadap penelitian AI: Memastikan bahwa penelitian AI dilakukan secara terbuka dan transparan, dengan partisipasi luas dari berbagai pihak (akademisi, pemerintahan, masyarakat sipil).
  • Pendidikan dan Kesadaran Publik: Mengedukasi masyarakat tentang potensi dan risiko AI, serta cara-cara melibatkan mereka dalam pengambilan keputusan.

2. Tahap Penerapan Terbatas dan Pengujian Prototipe (2030 – 2040) dengan tujuan menguji AI dalam skala kecil dengan pengawasan ketat. Tindakan yang dapat dilakukan adalah:

  • AI untuk Keberlanjutan dan Kesejahteraan Manusia: Fokus pada penggunaan AI dalam sektor kesehatan, pendidikan, energi terbarukan, dan mitigasi perubahan iklim. Misalnya, menggunakan AI untuk deteksi penyakit lebih awal, optimasi energi, dan pengelolaan sumber daya alam.
  • AI yang Dapat Diawasi: Menerapkan sistem yang memungkinkan manusia tetap memiliki kontrol atas keputusan yang dibuat oleh AI, meskipun AI mampu membuat keputusan cerdas dalam waktu nyata.
  • Pengembangan Sistem Regulasi Global: Pembentukan badan internasional untuk mengatur standar etika dan keamananpengembangan AI (misalnya, Komite Etika AI Global).

3. Tahap Penerapan Secara Luas dan Pengawasan yang Diperketat (2040 – 2060), dengan tujuan memastikan bahwa AI diterapkan dengan aman dan dapat bermanfaat untuk masyarakat global. Tindakan yang dapat dilakukan adalah:

  • AI yang Kolaboratif: Fokus pada AI sebagai mitra manusia, bukan pengganti manusia. AI dapat digunakan dalam industriesuntuk meningkatkan efisiensi, tetapi selalu ada pengawasan manusia.
  • Audit dan Akuntabilitas AI: Semua sistem AI yang digunakan dalam keputusan penting(seperti perawatan medis, pengelolaan sumber daya, kebijakan ekonomi) harus dapat diaudit dan terbuka untuk memastikan bahwa mereka beroperasi sesuai dengan nilai-nilai yang telah disepakati bersama.
  • Fasilitas Regulasi yang Tegas: Menciptakan kebijakan yang kuat untuk menghindari penyalahgunaan AIoleh pihak yang tidak bertanggung jawab, termasuk penggunaan AI untuk senjata otonom atau manipulasi informasi.

4. Tahap Kematangan: Pembentukan Kecerdasan Umum Artifisial (AGI) yang Aman (2060 – 2080), dengan tujuan menjaga keselamatan dan keberlanjutan ketika AI mencapai kecerdasan yang lebih luas. Tindakan yang dapat dilakukan adalah

  • AGI yang dapat Diawasi oleh Manusia: Saat AGI mulai dikembangkan, harus ada pengamanan bertingkatyang memungkinkan manusia tetap mengendalikan dan memantau tindakan AGI dalam situasi krisis.
  • Kerjasama Internasional untuk Pengawasan AGI: Semua negara harus bekerja sama untuk memastikan AGI tidak berkembang tanpa pengawasandan memastikan bahwa keputusan kritikal tetap berada dalam kendali manusia.
  • Fokus pada Pengembangan AI untuk Kebaikan Sosial: Memastikan bahwa AI, terlepas dari kemampuannya, digunakan untuk mendukung kesejahteraan umat manusiadan tidak hanya untuk keuntungan individu atau negara.

5. Tahap Maju: Pengembangan Artificial Superintelligence (ASI) dengan Kewaspadaan Ekstrem (2080 – 2100) dengan tujuan mencapai potensi tertinggi AI dengan kontrol yang ketat. Tindakan yang dapat dilakukan adalah:

  • Sistem ASI yang Terkendali dan Etis: Jika ASI berkembang, sangat penting untuk memastikan bahwa itu tetap berada dalam kerangka pengawasanmanusia, dengan sistem protokol keselamatan yang tidak dapat diubah atau dibypass.
  • AI dengan Penghormatan terhadap Nilai Global: ASI harus diarahkan untuk menghormati nilai-nilai bersamaumat manusia, seperti keadilan, kebebasan, dan keberagaman, dan berfokus pada tujuan global yang lebih besar (seperti perdamaian dunia dan kelestarian planet).
  • Keterlibatan Publik dan Demokrasi dalam Pengembangan ASI: Keterlibatan masyarakat dalam pembuatan keputusan besar tentang penggunaan ASIsangat penting untuk menghindari potensi penyalahgunaan.

Ada empat fitur Kunci dalam Peta Jalan AI yang Aman. Pertama, Pengawasan Etika dan Regulator yang Kuat: Di seluruh tahap pengembangan, harus ada badan-badan yang bertanggung jawab untuk memastikan bahwa semua aplikasi AI dilakukan dengan tanggung jawab sosial. Ke dua, Transparansi dan Akuntabilitas: Semua pengembangan AI harus dapat diaudit dan terbuka untuk pengujian pihak ketiga untuk memastikan bahwa tidak ada pelanggaran terhadap hak asasi manusia atau penyalahgunaan teknologi. Ke tiga, Kolaborasi Global: Pengembangan AI harus didorong oleh kerjasama internasional yang memastikan bahwa semua negara memiliki akses pada manfaat teknologi ini tanpa adanya dominasi dari negara tertentu. Ke empat, Pendidikan dan Keterlibatan Publik: Pendidikan tentang AI harus diperkenalkan lebih awal, dengan partisipasi aktif masyarakat dalam membuat keputusan besar mengenai teknologi ini.

Peta jalan ini menyediakan kerangka kerja bertahap untuk pengembangan AI yang aman dan bertanggung jawab, yang berfokus pada manfaat umat manusia, dengan perlindungan terhadap potensi bahaya. Pengawasan yang hati-hati dan kolaborasi internasional adalah kunci untuk memastikan bahwa teknologi ini digunakan untuk kebaikan bersama. 

 Penutup, Reserve 3 + 1

Dalam memandang perkembangan AI, saya senantiasa punya “reserve”. Perkembangan AI secara praktek atau kenyataan didorong oleh tiga hal utama. Pertama, hasrat dari pelaku usaha untuk mendapatkan keuntungan yang besar dan cepat, lebih besar dari semuanya dan lebih cepat dari semuanya. Ke dua, hasrat dari para innovator untuk berlomba (race) untuk membuat AI yang dapat mengalahkan kecerdasan manusia, karena itu menjadi kehormatan baginya –dan sekaligus kekayaan yang luar biasa. Ke tiga, hasrat dari komunitas AI yang semakin mengalami adiksi untuk segera hadirnya AI yang melampaui kecerdasan manusia. Selain itu, para penguasa politik semakin berhasrat untuk mempunyai teknologi yang dapat mengendalikan rakyat agar dapat terus berkuasa dan menikmati kekuasaan tersebut. Harapan utamanya adalah menemukan instrumen yang paling efisien, paling efektif, paling murah, dan paling dapat diandalkan secara terus menerus. Ketika mereka tidak dapat mengandalkan manusia, maka satu-satunya yang dikehendaki adalah teknologi AI dengan algoritma yang dapat mengoperasikan kekuasannya di atas manusia, di atas birokrasi dan sistem penyelenggaraan pemerintahan yang berbasiskan manusia, yang saat ini “menyebalkan” baginya, karena tidak dapat 100% patuh kepada keinginan dan perintahnya –apalagi hasrat berkuasa yang abnormal.

Mantan pemimpin Google yang terkenal karena kecemasannya terhadap perkembangan AI adalah Dr. Geoffrey Hinton, yang sering dijuluki sebagai “Godfather of AI.” Ia adalah ilmuwan komputer yang sangat berpengaruh, khususnya dalam pengembangan deep learning dan neural networks—teknologi yang menjadi dasar dari banyak sistem AI modern, termasuk ChatGPT. Hinton adalah pionir dalam pengembangan backpropagation dan deep neural networks, dan merupakan salah satu tokoh kunci dalam kebangkitan AI modern. Ia bekerja di Google selama lebih dari satu dekade, membantu mengembangkan berbagai proyek AI, terutama dalam bidang natural language processing (NLP) dan vision AI. Pada 2023, ia mengundurkan diri dari Google dan menyatakan keprihatinan yang serius terhadap arah perkembangan AI.

Setelah keluar dari Google, Hinton mengemukakan sejumlah kekhawatiran utama. Pertama, kemajuan AI yang terlalu cepat. Ia mengemukakan: “Saya dulu berpikir bahwa kita masih punya waktu puluhan tahun sebelum AI menyamai kecerdasan manusia. Sekarang saya rasa waktunya jauh lebih dekat dari itu.” (Geoffrey Hinton, 2023). Ia terkejut dengan kecepatan luar biasa dari kemajuan AI, terutama dengan kemampuan AI generatif seperti GPT dan sistem multimodal lainnya. Ke dua, potensi kehilangan kendali. Hinton memperingatkan bahwa kita bisa saja menciptakan AI yang terlalu cerdas dan tidak bisa lagi dikendalikan, terlebih jika AI mulai dapat menulis dan menjalankan kodenya sendiri, atau mengembangkan tujuan yang berbeda dari manusia.

Ke tiga, penggunaan untuk manipulasi dan misinformasi. AI yang bisa memalsukan suara, gambar, dan video dengan sangat meyakinkan (deepfakes) menjadi alat propaganda yang sangat berbahaya. Ia khawatir ini dapat digunakan untuk mengganggu demokrasi dan menyebarkan disinformasi massal. Ke empat, Risiko Militerisasi. Hinton juga khawatir AI akan digunakan dalam konteks senjata otonom, atau AI yang bisa mengambil keputusan untuk menyerang tanpa keterlibatan manusia.

Menariknya, Hinton dulunya cukup optimis tentang AI, tetapi mengubah pendiriannya setelah melihat apa yang mampu dilakukan oleh sistem-sistem AI generatif baru. Ia mengakui bahwa meskipun teknologi ini sangat menjanjikan, risikonya kini terasa lebih nyata dan mendesak. Memang, ia menyarakan agar ada regulasi ketat terhadap AI canggih, terutama sistem yang digunakan secara luas dalam masyarakat. Kemudian, transparansi dari perusahaan teknologi dalam mengembangkan model AI. Dan, Kolaborasi global, termasuk pembentukan lembaga internasional untuk mengawasi AI seperti Badan Energi Atom Internasional (IAEA) tapi khusus untuk AI. Di mana ketiganya dapat diibaratkan seruan musafir di padang gurun yang tandus dan gersang. Karena, ketiganya sangat sulit dicapai pada kondisi kekinian. Terutama denhan “3+1” pertimbangan di depan: hasrat laba, hasrat inovasi, adiksi AI, dan kekuasaan yang abnormal. Perkembangan AI dapat disangkakan sebagai sebuah juggernaut yang melampaui kemodernan yang pernah dibayangkan Giddens.

Apa artinya untuk Indonesia? Pertama, Pemerintah harus menyadari the true and hidden reality dari perkembangan AI, sebagaimana dikemukakan di depan –3+1. Ke dua, merumuskan peta jalan yang realistis –tidak sekedar idealis– sekaligus nasionalistis. Ke tiga, tidak sekedar menghadirkan regulasi, atau aturan-aturan, melainkan kebijakan (publik) ke-AI-an yang unggul (excellent). Ke empat, melihat masa depan AI bukan sekedar peluang, namun juga gangguan, hambatan, tantangan, bahkan ancaman, sehingga pendekatan (metode) yang disarankan bukan teknikal, teknologikal, proyeksional, apalagi sekedar ekstrapolarisasioal. Diperlukan metode scenario, teori risiko, dan game theory pada tingkat yang maju (advance) agar produk yang dihasilkan tidak menjadi sekedar produk formal kementerian, atau produk harapansional ala politisi atau teknologi. Karena AI bukan sekedar teknologi, namun peradaban. Kotak Pandora sudah dibuka, masalah menjadi tidak mudah. Kita perlu cara yang jauh lebih cerdas dan upaya yang jauh lebih keras dari yang pernah kita bayangkan.

end of paper

 

Avatar photo

Riant Nugroho

Ketua Umum Masyarakat Kebijakan Publik Indonesia

Articles: 22