Pengacara Hati-Hati Kutip Dokumen Dari AI! Jangan Seperti Lawyer Senior di MA Australia

AKURAT.CO Seorang pengacara senior di Australia terpaksa meminta maaf di depan hakim setelah dokumen yang ia ajukan dalam sebuah kasus pembunuhan ternyata berisi kutipan palsu dan putusan pengadilan yang tidak pernah ada. Kesalahan ini muncul karena dokumen tersebut dihasilkan dengan bantuan kecerdasan buatan (AI).
Kejadian ini berlangsung di Mahkamah Agung negara bagian Victoria dan menjadi salah satu insiden terbaru yang menyoroti risiko penggunaan AI dalam sistem peradilan di berbagai negara.
Pengacara pembela Rishi Nathwani, yang memegang gelar prestisius King’s Counsel, mengaku bertanggung jawab penuh atas kekeliruan ini. Dalam sidang, ia menyampaikan rasa penyesalan yang mendalam kepada Hakim James Elliott, sambil mewakili tim pembela terdakwa — seorang remaja yang diadili atas tuduhan pembunuhan.
“Kami sangat menyesal dan malu atas apa yang terjadi,” ujar Nathwani, dikutip dari dokumen persidangan.
Kesalahan ini menyebabkan penundaan sidang selama 24 jam. Meski begitu, pada hari berikutnya, Hakim Elliott memutuskan terdakwa tidak bersalah atas pembunuhan karena mengalami gangguan mental.
Referensi putusan MA yang Tak Pernah Ada
Hakim Elliott menegaskan bahwa keakuratan informasi yang diajukan pengacara merupakan hal krusial bagi proses penegakan hukum. Ia mengingatkan bahwa Mahkamah Agung Victoria bahkan sudah merilis pedoman sejak tahun lalu, yang melarang penggunaan AI tanpa verifikasi menyeluruh.
“Penggunaan kecerdasan buatan tidak dapat diterima kecuali produk penggunaannya diverifikasi secara independen dan menyeluruh,” tegasnya.
Dalam kasus ini, pernyataan palsu yang diajukan mencakup kutipan fiktif dari pidato legislatif serta referensi putusan Mahkamah Agung yang ternyata tidak pernah ada. Kesalahan tersebut terungkap ketika rekan hakim tidak menemukan arsip kasus yang dimaksud dan meminta salinannya. Setelah dicek, pengacara mengakui bahwa kutipan tersebut sepenuhnya fiktif.
Meski tidak disebutkan jenis AI generatif yang digunakan, kasus ini mengingatkan pada peristiwa serupa di Amerika Serikat pada 2023. Saat itu, dua pengacara dan sebuah firma hukum didenda 5.000 dolar AS setelah ChatGPT digunakan untuk menyusun argumen hukum yang ternyata berisi putusan fiktif. Peristiwa lain terjadi di akhir tahun yang sama, ketika Michael Cohen — mantan pengacara pribadi Donald Trump — juga secara tidak sengaja menyertakan putusan palsu dari alat pencarian hukum berbasis AI.
Insiden di Australia ini kembali memicu perdebatan soal batas aman penggunaan AI di ruang sidang, serta pentingnya pemeriksaan manual sebelum dokumen resmi diajukan.
Dilarang mengambil dan/atau menayangkan ulang sebagian atau keseluruhan artikel di atas untuk konten akun media sosial komersil tanpa seizin redaksi.









