AI Diprogram Deteksi Kebohongan, Apakah Akurat atau Sesat?

Kecerdasan buatan (AI) semakin luas digunakan untuk berbagai kebutuhan, bahkan kini mulai dipakai untuk mendeteksi kebohongan. Apa benar teknologi ini bisa dipercaya untuk membaca apakah seseorang jujur atau tidak? Atau justru bisa menyesatkan?

Teknologi AI berkembang sangat pesat. Dari sekadar chatbot hingga analisis data keuangan, sekarang kemampuannya menjangkau ranah yang sangat kompleks, seperti menilai kebenaran dalam ucapan dan ekspresi seseorang. Konsep ini terdengar futuristik, tapi ternyata sudah diuji coba di beberapa negara dan bidang.

Bagaimana AI Bisa Mendeteksi Kebohongan?

Secara teknis, program AI yang digunakan untuk mendeteksi kebohongan biasanya dilatih menggunakan dua pendekatan utama:

Sekilas Info

1. Analisis Pola Bicara

Seseorang yang berbohong umumnya menunjukkan tanda-tanda tertentu dalam cara berbicaranya. Ini bisa berupa:

  • Nada suara berubah
  • Terlalu banyak jeda saat bicara
  • Menghindari detail
  • Berbicara secara berputar-putar

AI dengan kemampuan Natural Language Processing (NLP) dapat mendeteksi pola-pola seperti itu. Misalnya, sistem bisa menganalisis ratusan rekaman suara dan teks untuk membedakan antara ucapan yang jujur dan yang manipulatif.

Model yang lebih canggih bahkan dapat membaca intonasi, intonasi yang tidak konsisten, hingga keraguan dalam memilih kata. Beberapa sistem telah digunakan dalam uji coba wawancara kerja dan interogasi investigatif.

“AI bisa mengenali pola bicara yang terlalu rapi atau malah terlalu rumit. Itu bisa jadi sinyal kebohongan,” ujar Dimas R., analis data dari startup teknologi etika di Jakarta.

2. Pengenalan Ekspresi Wajah

Selain suara, kebohongan juga bisa terbaca dari wajah. Manusia kadang tidak sadar menunjukkan ekspresi mikro, dimana gerakan wajah singkat dan halus saat merasa takut, bersalah, atau gelisah.

AI bisa merekam dan menganalisis perubahan ini dalam hitungan milidetik, sesuatu yang sulit dilakukan mata manusia.

Contoh sistem yang sudah dipakai antara lain:

  • FaceReader
  • DeepFace
  • Emotion AI Toolkit

Sistem ini bisa membaca ekspresi dari ratusan titik wajah dan menghubungkannya dengan data emosi seperti stres, cemas, atau panik. Dalam beberapa kasus, teknologi ini membantu memeriksa kejujuran dalam klaim asuransi dan sidang pengadilan.

Baca juga: AI Prediksi Kematian Ini Diklaim Lebih Akurat dari Dokter Spesialis

Di Mana Teknologi Ini Sudah Diuji?

Beberapa negara telah mencoba sistem deteksi kebohongan berbasis AI dalam skala terbatas:

  • Belanda dan Inggris:

Program pilot di bandara untuk mendeteksi penumpang dengan respons mencurigakan saat wawancara imigrasi.

  • Amerika Serikat:

AI digunakan dalam penyaringan lamaran kerja untuk mengidentifikasi pelamar yang berbohong dalam wawancara daring.

  • China:

Pemerintah menguji AI dalam penyelidikan kriminal untuk menilai ekspresi dan respons verbal tersangka.

  • Uni Emirat Arab:

Kepolisian Dubai menggunakan sistem AI untuk memfilter laporan bohong yang masuk secara online.

Apakah Hasilnya Akurat?

Sejauh ini, hasilnya beragam. Dalam studi terbatas oleh European AI Institute, sistem AI yang dilatih secara khusus bisa mengenali kebohongan dengan tingkat akurasi 75–85% yang dinilai lebih tinggi dari manusia biasa yang umumnya hanya mencapai sekitar 54%.

Namun, belum ada sistem AI yang benar-benar tak bisa salah. Banyak faktor bisa mempengaruhi hasil, seperti:

  • Budaya bicara dan ekspresi tiap individu
  • Keadaan emosi yang kompleks (orang bisa gugup meski jujur)
  • Bias data pelatihan

“Kita tidak bisa mengandalkan AI sepenuhnya untuk menentukan siapa yang bohong atau tidak. AI hanya alat bantu, bukan hakim,” kata Lani T., pengamat hukum teknologi.

Risiko dan Tantangan

Walau terdengar menjanjikan, penerapan AI untuk deteksi kebohongan menyimpan banyak tantangan. Berikut ini beberapa tantangan dari penerapan AI ini:

1. Privasi dan Etika

Untuk melatih sistem AI, dibutuhkan data suara, ekspresi wajah, dan rekaman interaksi. Jika data ini tidak disimpan dan digunakan secara aman, bisa berisiko melanggar privasi.

2. Kesalahan Deteksi

AI bisa keliru. Misalnya, orang yang sedang gugup karena tidak terbiasa bicara di depan kamera bisa terbaca sebagai “tidak jujur” oleh sistem. Ini bisa merugikan individu yang sebenarnya tidak berbohong.

3. Bias Sistem

Jika AI hanya dilatih dengan data dari satu kelompok budaya atau etnis, maka hasilnya bisa bias terhadap kelompok lain. Misalnya, gaya bicara masyarakat Asia bisa berbeda dari gaya bicara Barat, dan ini bisa memengaruhi akurasi.

4. Ketiadaan Regulasi Jelas

Hingga kini, belum ada regulasi global yang mengatur penggunaan AI dalam mendeteksi kebohongan. Ini bisa membuka celah penyalahgunaan, terutama dalam konteks hukum dan pekerjaan.

Baca juga: Jack Dorsey Bikin Bitchat, Aplikasi Chatting Tanpa Internet Pesaing WhatsApp

Apakah Layak Digunakan Secara Luas?

Pendapat ahli masih terbagi. Beberapa mendukung dengan catatan bahwa AI harus selalu diawasi oleh manusia. Beberapa lainnya menilai bahwa mendeteksi kebohongan adalah ranah yang terlalu kompleks untuk ditentukan oleh algoritma.

Namun yang pasti, potensi penggunaannya tetap besar:

  • Di bidang keamanan, bisa membantu dalam investigasi awal.
  • Di dunia kerja, bisa menyaring pelamar dengan lebih cepat.
  • Di layanan pelanggan, bisa mendeteksi keluhan palsu.
  • Di media sosial, bisa membantu melacak penyebaran hoaks.

Kuncinya ada di kontrol, transparansi, dan kehati-hatian. AI bukan alat yang sempurna, tapi bisa jadi sangat berguna jika digunakan dengan benar.

Penggunaan program AI dipakai deteksi kebohongan memang terdengar canggih dan membantu. Tapi perlu diingat, ini bukan sihir. AI hanya alat bantu yang bekerja berdasarkan data dan pola.

Akurasi tinggi sekalipun tidak menjamin hasil yang 100% benar. Maka dari itu, penggunaan teknologi ini sebaiknya dilakukan dengan pengawasan manusia, aturan yang jelas, dan pemahaman bahwa kejujuran tidak selalu bisa ditentukan oleh algoritma.

Selama digunakan secara etis dan proporsional, AI bisa menjadi alat bantu yang efektif. Tapi kalau disalahgunakan, bukan tak mungkin malah menciptakan ketidakadilan baru.

Baca Berita dan Artikel yang lain di Google News.

(fnf)

Sekilas Info