Oleh Kuek Chee Ying
Generatif AI (GenAI) ialah satu subbidang AI yang menggunakan teknik pembelajaran mesin dan pembelajaran mendalam untuk menjana kandungan baru termasuk teks, imej, audio dan video. Ia digunakan dalam pelbagai industri seperti penjagaan kesihatan, kewangan, hiburan, amalan perundangan dan pendidikan untuk meningkatkan kecekapan dan produktiviti. Sebagai contoh, profesion undang-undang semakin banyak menggunakan GenAI untuk menyediakan draf, menyemak, meringkaskan atau menterjemah dokumen serta menjalankan penyelidikan undang-undang pada peringkat awal. Ini sekali gus meringankan beban tugas yang memakan masa dan memerlukan tenaga dalam profesion undang-undang.
GenAI yang menggunakan Model Bahasa Besar (LLM) seperti ChatGPT dibina dengan menggunakan rangkaian saraf yang dikenali seagai pengubah yang dilatih dengan set data besar-besaran. Ia berfungsi berdasarkan penjanaan teks ramalan, iaitu meramalkan kebarangkalian perkataan tertentu muncul seterusnya dalam turutan, dan bukannya mengenal pasti fakta atau memahami maknanya. Oleh itu, ChatGPT dan alat GenAI lain tidak kebal daripada halusinasi, iaitu fenomena di mana LLM menghasilkan maklumat atau rujukan yang tidak tepat, tidak disahkan tetapi kelihatan munasabah sebagai jawapan kepada pertanyaan. Jika peguam memetik atau bergantung pada kes-kes yang tidak wujud dalam penyampaian perkhidmatan guaman dan di mahkamah tanpa pengawasan yang teliti, ini boleh menyebabkan kesalahan dalam nasihat undang-undang, menjejaskan integriti sistem kehakiman dan menghakis kepercayaan orang ramai terhadap profesion perundangan serta pentadbiran keadilan. Begitu juga, ahli akademik yang memetik kes-kes atau literatur rekaan dalam artikel mereka akan mengalami penjejasan kredibiliti akademik mereka dan besar kemungkinan artikel mereka akan ditarik balik oleh jurnal.
Pada September 2025, Mahkamah Tinggi Singapura telah menjatuhkan penghakiman dalam kes Tajudin bin Gulam Rasul and Another v Suriaya bte Haja Mohideen, yang memerintahkan peguam pihak penuntut supaya membayar kos sebanyak $800 secara peribadi kepada Defendan. Ini kerana peguam pihak penuntut telah memetik satu kes rekaan yang dijana oleh alat GenAI dalam hujahan bertulis pihak penuntut. Peguam-peguam bagi kedua-dua pihak, iaitu Penuntut dan Defendan, juga diarahkan supaya memberikan kepada anak guam mereka sesalinan arahan Hakim tersebut memandangkan keseriusan salah laku peguam berkenaan. Hakim menekankan bahawa sebagai pegawai mahkamah, seorang peguambela dan peguamcara “dipertanggungjawabkan dengan tugas yang berat untuk membantu mahkamah dalam pentadbiran keadilan”. Mereka mesti memastikan bahan yang dikemukakan kepada mahkamah adalah benar dan tepat.
Penyalahgunaan Generatif AI dalam amalan perundangan turut berlaku di bidang kuasa lain. Sebagai contoh, dalam kes Mata v Avianca, Inc (2023, kes Amerika Syarikat), dua orang peguam telah dikenakan penalti sebanyak $5,000 kerana memetik keputusan kehakiman yang tidak wujud yang dijana oleh ChatGPT dalam dokumen “Affirmation of Opposition”. Dalam kes People v Crabill (2023, kes Amerika Syarikat), seorang peguam telah memfailkan satu usul dan memetik kes-kes rekaan yang dijana oleh ChatGPT tanpa membaca kes-kes tersebut. Sebelum pendengaran usul itu, beliau mendapati bahawa kes-kes yang dipetik adalah rekaan. Namun begitu, beliau tidak memaklumkan mahkamah atau menarik balik usul tersebut. Akibatnya, peguam itu telah digantung selama setahun dan sehari atas salah laku profesionalnya.
Bagi mengelakkan insiden yang tidak diingini seperti memetik autoriti rekaan dalam penyampaian perkhidmatan guaman, penghujahan di mahkamah atau penyerahan artikel kepada jurnal akademik, adalah penting untuk pengamal undang-undang dan ahli akademik menggunakan GenAI secara bertanggungjawab dan memainkan peranan sebagai “penjaga pintu” (gatekeeper) untuk mengesahkan maklumat yang dihasilkan. Malah, Pekeliling Majlis Peguam Malaysia No. 342/2023 bertajuk “The Risks and Precautions in Using Generative Artificial Intelligence in the Legal Profession, Specifically ChatGPT” menekankan langkah berjaga-jaga yang perlu diambil, iaitu sentiasa menyemak hasil yang dikeluarkan oleh ChatGPT atau alat GenAI lain dengan merujuk kepada pangkalan data undang-undang tradisional.
Walaupun GenAI telah bertambah baik dari semasa ke semasa, halusinasi perundangan masih menjadi cabaran kepada pengamal undang-undang dan ahli akademik yang menggunakannya untuk penyelidikan awal. Satu kajian yang diterbitkan pada tahun 2024 oleh sekumpulan penyelidik-penyelidik dari Amerika Syarikat (Dahl et al. 2024) mendedahkan bahawa halusinasi perundangan adalah meluas, iaitu dengan kadar antara 69% hingga 88% dalam jawapan kepada pertanyaan undang-undang apabila penyelidik-penyelidik menguji lebih daripada 200,000 pertanyaan terhadap GPT 3.5, Llama 2 dan PaLM2. Satu lagi penyelidikan telah dijalankan oleh sekumpulan penyelidik-penyelidik di Amerika Syarikat untuk menilai kebolehpercayaan alat penyelidikan undang-undang berasaskan AI yang terkemuka. Dalam kertas mereka yang diterbitkan pada 2025, adalah dilaporkan bahawa kadar halusinasi berada di antara 17% hingga 33% (Magesh et al. 2025).
Kesimpulannya, walaupun GenAI dapat menawarkan kemudahan dan mempercepatkan tugasan perundangan, para pengamal undang-undang dan ahli akademik harus menggunakannya dengan berhati-hati sebagai alat yang menghasilkan draf atau maklumat awal yang memerlukan pengesahan, dan bukan sebagai produk akhir. Proses penelitian yang ketat perlu dilakukan untuk memastikan ketepatan kandungan sebelum sesuatu kes atau artikel yang dipetik dapat dikemukakan kepada mahkamah dan anak guam, atau dipetik dalam artikel untuk tujuan penerbitan.
Dr Kuek Chee Ying ialah pensyarah kanan di Fakulti Undang-Undang, Universiti Malaya, dan boleh dihubungi di cykuek@um.edu.my






Leave a Reply