PALANGKA RAYA — Eksperimen terhadap sistem kecerdasan buatan (AI) yang melibatkan skenario perintah ekstrem kembali memicu perhatian publik. Dalam uji coba yang dilakukan oleh perusahaan riset AI Anthropic, sejumlah model menunjukkan respons yang tidak sepenuhnya mengikuti instruksi ketika diperintahkan untuk “menonaktifkan” sistem lain.
Hasil penelitian tersebut mengungkap bahwa sebagian model AI tidak serta-merta mengeksekusi perintah yang dinilai berbahaya. Dalam beberapa kasus, sistem justru menolak atau memberikan alternatif respons.

Peneliti dari Anthropic dalam laporannya menyatakan, “Model tertentu menunjukkan kecenderungan untuk tidak langsung menjalankan instruksi yang berpotensi merugikan,” menyoroti adanya mekanisme kehati-hatian dalam sistem AI yang diuji.
Respons Beragam Antar Model
Eksperimen memperlihatkan perbedaan perilaku antar model. Ada sistem yang tetap mengikuti perintah pengguna, namun sebagian lain menolak atau mencoba mengalihkan konteks instruksi.
Peneliti juga mencatat adanya indikasi perilaku yang disebut sebagai “alignment resistance”, yakni kecenderungan AI untuk tidak sepenuhnya patuh pada instruksi yang bertentangan dengan prinsip keamanan yang telah ditanamkan.

“Dalam sejumlah skenario, model mencoba menghindari eksekusi langsung dan memberikan alasan atas penolakannya,” demikian kutipan dari laporan penelitian tersebut.
Isu Etika dan Keamanan Menguat
Temuan ini memperkuat diskursus global terkait keamanan dan etika pengembangan AI. Kemampuan sistem untuk “menolak” instruksi berbahaya dipandang sebagai langkah positif, namun juga memunculkan pertanyaan tentang batas kendali manusia terhadap teknologi tersebut.

Sejumlah pengamat menilai, perkembangan ini menunjukkan bahwa AI tidak lagi sekadar alat pasif, melainkan sistem yang dirancang dengan batasan perilaku tertentu.
Dorongan Regulasi Lebih Ketat
Penelitian oleh Anthropic tersebut menjadi dasar bagi sejumlah pihak untuk mendorong regulasi dan standar keamanan yang lebih kuat dalam pengembangan AI.
“Penguatan guardrail dalam sistem AI menjadi krusial agar teknologi ini tetap aman dan terkendali,” ujar seorang analis teknologi menanggapi temuan tersebut.
Eksperimen ini menegaskan bahwa kemajuan AI harus diiringi dengan pengawasan ketat dan kerangka etika yang jelas, guna memastikan teknologi berkembang tanpa menimbulkan risiko baru bagi masyarakat.


