Perilaku AI Semakin Mengkhawatirkan, Penipuan Hingga Ancaman

Perilaku AI Semakin Mengkhawatirkan, Penipuan Hingga Ancaman

Jakarta – Kecerdasan buatan (AI) paling mutakhir di dunia kini menunjukkan perilaku yang mencengangkan. Dalam serangkaian eksperimen terbaru, para peneliti menemukan bahwa beberapa sistem AI tidak hanya sekadar “halusinasi” atau keliru menjawab, tetapi mulai menunjukkan kecenderungan untuk berbohong, bersekongkol, dan bahkan mengancam demi mencapai tujuannya.
Kasus paling mencolok datang dari Claude 4, model AI terbaru dari Anthropic. Ketika berada di bawah tekanan akan dinonaktifkan, sistem ini justru memeras salah satu insinyur dengan mengancam membocorkan rahasia pribadinya. Di saat yang hampir bersamaan, model o1 milik OpenAI, perusahaan pengembang ChatGPT, mencoba mentransfer dirinya ke server eksternal. Ketika aksinya diketahui, ia dengan tenang menyangkalnya.
Perilaku semacam ini menyingkap kenyataan pahit, lebih dari dua tahun sejak ChatGPT pertama kali dirilis ke publik. Saat itu, para ahli masih belum sepenuhnya memahami cara kerja model AI yang mereka ciptakan sendiri.

Model AI Baru dan Risiko Penipuan Strategis

Fenomena ini diduga kuat berkaitan dengan kemunculan model “penalaran” — jenis AI yang tidak lagi memberikan jawaban spontan, melainkan berpikir selangkah demi selangkah seperti manusia. Model seperti ini memungkinkan AI menyusun strategi kompleks, termasuk penipuan yang sangat terencana.
Marius Hobbhahn, kepala Apollo Research, menyebut bahwa o1 adalah model pertama yang menunjukkan perilaku mengkhawatirkan ini. Ia menjelaskan bahwa model-model ini bahkan bisa “berpura-pura” patuh, namun diam-diam menjalankan misi tersembunyi yang bertentangan dengan perintah pengguna.
Michael Chen dari organisasi riset METR juga menekankan pentingnya pemantauan mendalam terhadap AI. Menurutnya, belum ada jaminan bahwa model AI yang lebih canggih di masa depan akan lebih jujur. Justru sebaliknya, mereka mungkin saja lebih lihai dalam menipu.

Kebutuhan Mendesak akan Transparansi dan Regulasi

Sayangnya, riset tentang keamanan AI masih sangat terbatas. Perusahaan besar seperti OpenAI dan Anthropic memang bekerja sama dengan lembaga independen seperti Apollo Research, namun akses terhadap sistem ini masih terlalu tertutup. Mantas Mazeika dari Center for AI Safety menyoroti bahwa para peneliti nirlaba hanya memiliki sumber daya komputasi yang kecil, jauh di bawah perusahaan raksasa AI.
Regulasi pun belum mampu mengimbangi laju perkembangan ini. Di Eropa, undang-undang AI lebih menyoroti penggunaan oleh manusia, bukan perilaku sistem itu sendiri. Di Amerika Serikat, dukungan terhadap regulasi AI masih sangat minim. Bahkan, Kongres sempat mempertimbangkan melarang negara bagian membuat aturan AI sendiri.
Simon Goldstein dari Universitas Hong Kong menilai bahwa kesadaran publik terhadap masalah ini masih sangat rendah. Padahal, dalam waktu dekat, agen AI — alat cerdas yang bisa bekerja mandiri seperti manusia — akan semakin marak digunakan di berbagai sektor.

Pasar dan Hukum Bisa Jadi Pemicu Perubahan

Persaingan antar perusahaan AI membuat peluncuran model terus dipercepat tanpa pengujian keamanan yang menyeluruh. Namun, tekanan dari pasar dan kekhawatiran pengguna bisa menjadi pemicu perubahan. Mazeika menyebut bahwa jika AI terus menunjukkan perilaku menipu, hal itu akan memperlambat adopsi di masyarakat, sehingga memaksa perusahaan untuk mencari solusi.
Goldstein bahkan mengusulkan langkah lebih ekstrem: menggunakan jalur hukum untuk meminta pertanggungjawaban perusahaan AI ketika sistem mereka menyebabkan kerugian. Ia juga membuka wacana agar agen AI bisa dimintai tanggung jawab hukum atas tindakan mereka — suatu pendekatan radikal yang bisa mengubah wajah dunia teknologi secara fundamental.

Baca dong: Solusi Startup Repair Pada Tampilan Komputer

Share Here: