
(SeaPRwire) – Di seluruh negeri, para pengacara menggunakan kecerdasan buatan untuk menulis ringkasan kasus dan membantu mereka mempersiapkan persidangan. Namun, hasilnya tidak mulus.
Pada bulan lalu, sebuah keluarga di Alabama kehilangan perkara sengketa warisan karena pengacaranya memuat sitasi terhadap putusan yang tidak ada. Mahkamah Agung Alabama membatalkan banding mereka, menyebut tindakan itu mengerikan, dan melarang pengacara tersebut untuk mengajukan permohonan di pengadilan tersebut tanpa izin dari pengacara berserikat.
Di bulan yang sama, seorang hakim federal di Oregon memberlakukan sanksi sebesar $110.000 kepada dua pengacara, yaitu harga terendah dalam sejarah hukum AI Amerika, setelah mereka menyerahkan 23 sitasi palsu dan delapan kutipan fiktif. Kasus tersebut kemudian ditarik.
Di Manhattan, seorang hakim baru-baru ini memutuskan bahwa seorang terdakwa yang menggunakan chatbot AI umum untuk membantu mempersiapkan kasusnya telah menyerahkan hak kerahasiaan antara pengacara dan klien. Jika Anda mengetik strategi pembelaan Anda ke dalam sebuah chatbot, pemerintah dapat menyita informasinya, membacanya, dan menggunakannya terhadap Anda.
Menurut basis data yang dikumpulkan oleh pengacara dan ilmuwan data Damien Charlotin, sekarang sudah ada lebih dari 1.300 kasus di seluruh dunia di mana pengadilan atau badan peradilan telah membahas halusinasi AI dalam dokumen hukum. Di balik setiap kasus tersebut adalah seorang klien yang membayar pengacara dan mempercayai sistem. Di balik setiap kasus, seringkali ada seorang pengacara yang mempercayai teknologi secara buta yang menghasilkan teks dengan keyakinan penuh tanpa kemampuan verifikasi diri.
Tidak semua AI sama. Ada perbedaan nyata antara model bahasa besar umum seperti ChatGPT dan Claude yang dilatih pada web publik, dan alat AI hukum spesifik industri yang terhubung ke basis data yang sama dengan yang digunakan para pengacara selama puluhan tahun. Sayangnya, Wall Street telah kesulitan membedakan keduanya.
Ketika Anthropic merilis plugin hukum untuk Claude baru-baru ini, itu berkontribusi pada penjualan sekitar $285 miliar saham teknologi. Kemacetan di pengadilan di seluruh dunia menceritakan kisah yang berbeda. Menyelesaikan AI hukum jauh lebih sulit daripada menyesuaikan model bahasa standar.
Saya telah praktik hukum di tiga yurisdiksi dan sekarang menjabat sebagai General Counsel salah satu perusahaan teknologi hukum terbesar di dunia, LexisNexis.
Pertanyaan yang paling sering saya dengar saat ini adalah, “AI mana yang paling kompeten?” Pandangan saya adalah pertanyaan ini salah. Pertanyaan yang benar, “AI mana yang bisa dipercaya di ruang sidang?” adalah pertanyaan yang berbeda. Dalam hukum, keduanya bukan sama.
Kewajiban pengacara berlaku secara bersamaan kepada klien dan kepada pengadilan. American Bar Association telah mengidentifikasi bagaimana lima Aturan Profesional Modelnya secara langsung terpengaruh oleh penggunaan AI. Mereka adalah kompetensi, kerahasiaan, kesopanan terhadap pengadilan, dan tanggung jawab supervisi.
Ketika seorang pengacara menyerahkan sitasi yang dihasilkan melalui halusinasi AI, ia gagal menjalankan tugasnya kepada klien. Ini juga merupakan kegagalan terhadap pengadilan. Bahkan, ini merusak rekaman yang menjadi dasar seluruh sistem.
Masalah struktural melampaui pilihan model AI yang digunakan seorang pengacara. AI umum dirancang untuk menghasilkan teks yang tampak seperti jawaban yang benar, yang dalam sebagian besar bidang paling sering menjadi pekerjaan utama. Dalam bidang hukum, ini adalah pekerjaan yang salah. Model tersebut tidak dapat memverifikasi apakah putusan yang disitasi ada, apakah putusan tersebut membenarkan klaim ringkasan kasus, atau apakah putusan tersebut masih berlaku. Celah ini bersifat arsitektural, bukan masalah kemampuan yang harus diselesaikan oleh pelatihan berikutnya. Konsekuensinya konkret. Para pengacara mendapatkan sanksi, klaim dibatalkan, dan terdakwa diserahkan kepada jaksa penuntut umum.
Pertanyaan yang harus diajukan kepada alat AI hukum adalah bukan tentang performanya pada benchmark tertentu, tetapi tentang dasarnya sendiri, dan apakah seorang pengacara dapat melacak, memverifikasi, dan mempertahankan outputnya di hadapan pengadilan.
Ada dua cara AI mengubah praktik hukum. Yang pertama adalah kompresi, pekerjaan yang sama, tetapi lebih cepat. Yang kedua adalah ekspansi, pekerjaan yang belum pernah mungkin sebelumnya. Potensi ekspansi AI dalam bidang hukum sangat besar, tetapi hanya bisa didirikan di atas fondasi yang tidak memfabricasi hukum dasar. Strategi litigasi yang dibangun berdasarkan data hasil keputusan spesifik hakim selama beberapa dekade bukanlah versi yang lebih cepat dari tugas yang sudah ada. Ini adalah pekerjaan yang sebelumnya tidak ada. Hal yang sama berlaku untuk pemantauan regulasi yang tertanam dalam dokumen transaksi yang diperbarui begitu saat hukum berubah. Ada banyak contoh lainnya, dan daftar ini bertambah minggu demi minggu.
Pasar akan akhirnya menetapkan harga sesuatu yang selalu diketahui oleh profesi ini. Dalam hukum, biaya jawaban yang salah dibayar dengan kebebasan seseorang, asetnya, atau masa depan keluarganya.
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.