Saya belum lama ini mengikuti beasiswa sertifikasi prompt enginering dari AI Opportunity Fund: Asia Pacific dalam kolaborasi dengan AVPN serta didukung oleh Google.org dan Asian Development Bank. Sertifikasi ini dimulai dengan penjelasan yang sangat membumi tentang AI. AI ibarat anak kecil yang belajar. Karena itu, untuk memahami, AI butuh data yang sangat banyak seperti teks, gambar, suara, video, dan sebagainya. Dan dari pola-pola data inilah AI mulai mengenali wajah, menerjemahkan bahasa, hingga merekomendasikan lagu favorit Anda di pagi hari ataupun mengerjakan tugas .
Tapi proses ini bukan sulap. Sebab AI bukan makhluk ajaib yang tahu segalanya. AI belajar, mencoba, gagal, dan mencoba lagi sama seperti kita saat pertama belajar naik sepeda.
Seni Berbicara dengan Mesin
Yang paling membuka wawasan saya dalam sertifikasi ini adalah satu topik unik tentang prompt engineering. Di sini AI ibarat sahabat jenius yang bisa menjawab pertanyaan apa pun, tetapi hanya jika kita bertanya dan memberikan instruksi (prompt) dengan sangat spesifik dan jelas. Prompt yang baik bisa memunculkan ide segar, menyusun strategi pemasaran, hingga menulis puisi. Tapi prompt yang buruk bisa berujung pada kebingungan bahkan kekacauan. Namun, lewat pelatihan AI ini telah menunjukkan bagaimana menyusun pertanyaan yang jernih, memberi konteks, hingga membangun percakapan yang berkelanjutan dengan AI. Sesuatu yang sangat teknis, tapi terasa sangat manusiawi. Dalam konteks ini prompt enginering atau instruksi yang diberikan kepada AI menjadi semacam seni berkomunikasi
Kendati demikian pelatihan bertajauk AI praktis untuk produktivitas dan penggunaan generative AI dari AI Oppurtunity Fund: Asia Pasific bukan hanya tentang kehebatan AI. Ada babak penting tentang bias dan ancaman terhadap privasi. AI bisa saja mengambil keputusan yang diskriminatif jika data pelatihannya tidak beragam. Ia bisa menciptakan ketimpangan sosial, memperkuat stereotip, bahkan merusak reputasi seseorang lewat deepfake. Selain itu, hasil yang diberikan AI bisa tampak terdengar ilmiah dan meyakinkan, padahal AI hanya menebak berdasarkan pola. Misalnya AI bisa menyertakan sumber-sumber dalam artikel yang dihasilkannya, namun terkadang sumber tulisan, catatan kaki, ataupun daftar pustaka yang dihasilkan AI hanya merupakan halusinasi AI.
Halusinasi AI berarti AI menghasilkan informasi yang terdengar meyakinkan, tetapi sebenarnya salah, tidak akurat, atau bahkan sepenuhnya fiktif. Misalnya, Suatu malam, sesorang duduk di depan layar, mencoba menyelesaikan tugas menulis dengan bantuan sebuah chatbot berbasis AI. Dengan percaya diri, dia mengetik prompt: “buatkan tulisan tentang psikologi dan sertakan dengan daftar pustakanya buku-buku psikologi yang ditulis Albert Einstein.”
Dan hanya dalam hitungan detik, AI memberikan tulisan psikologi dan menyertakan sumber tulisan. Salah satunya yakni buku Albert Einstein. AI menyebutkan dengan sopan: “Albert Einstein menulis buku berjudul Mind and Meaning: A Psychological Perspective yang membahas hubungan antara fisika dan psikologi…”. Orang itu tentu membelalak. Buku itu terdengar hebat, judulnya menarik, topiknya mendalam. Tapi saat orang tersebut coba cari di internet, orang tersebut tidak menemukan jejak apa pun. Buku itu tidak pernah ada. Inilah yang disebut sebagai halusinasi AI. Halusinasi AI bisa berupa:
- Kutipan tokoh yang tidak pernah diucapkan
- Referensi buku yang tidak pernah ditulis
- Data statistik yang tidak pernah dipublikasikan
- Bahkan kasus hukum atau tokoh sejarah yang sepenuhnya fiktif.
Halusinai AI terjadi karena AI hanya memperkirakan kata atau kalimat berikutnya berdasarkan miliaran contoh dari internet dan dokumen pelatihan. Jadi, kalau anda minta AI menulis esai atau menjawab pertanyaan, ia akan menciptakan jawaban berdasarkan pola, bukan berdasarkan pengetahuan sejati.
Mengawasi AI
Hal Ini menjadi peringatan bahwa membangun AI yang cerdas saja tidak cukup. Ia juga harus bijak. Dan di sinilah peran kita sebagai penjaga nilai dan etika untuk mengawasi hasil dari AI. Kita dapat melakukannya dengan:
- Memastikan Data yang Beragam
- Menggunakan Teknik Fairness-Aware AI
- Melakukan Audit dan Evaluasi terhadap hasil yang diberikan AI
- Meningkatkan Transparansi dan Akuntabilitas bila menggunakan sumber dari AI
Dalam konteks ini, AI bukan tentang mesin pintar yang menggantikan manusia, tetapi tentang manusia yang belajar menciptakan, memandu, dan bertanggung jawab atas teknologi yang dibangunnya. Dengan demikian, AI akan menjadi seperti cermin besar. Ia akan memperlihatkan kepada kita siapa kita sebenarnya. (Christian Romario)
Keren….