SCROLL TO CONTINUE WITH CONTENT

Percakapan dengan ChatGPT Bisa Digunakan di Pengadilan, Ini Penjelasan CEO OpenAI

M. Faheem Eshaq - Senior Editor Wartaoke.net
Oleh M. Faheem Eshaq - Senior Editor
3 Menit Membaca
Percakapan di ChatGPT dikabarkan dapat digunakan sebagai bukti di pengadilan.Open AI

PEKANBARU — Chatbot berbasis kecerdasan buatan seperti ChatGPT kini menjadi alat bantu yang lazim digunakan masyarakat, mulai dari pekerjaan harian hingga konsultasi pribadi. Namun, tak banyak yang tahu bahwa percakapan dengan chatbot tersebut berpotensi dijadikan bukti hukum dalam proses pengadilan.

Hal ini diungkap langsung oleh CEO OpenAI, Sam Altman, dalam sebuah wawancara bersama komedian Theo Vonn di kanal podcast This Past Weekend. Dalam pernyataannya, Altman mengakui bahwa belum ada perlindungan hukum memadai yang melindungi isi percakapan pengguna dengan chatbot seperti ChatGPT.

“Kalau Anda membicarakan sesuatu yang sangat pribadi dengan ChatGPT dan kemudian menghadapi kasus hukum, bisa saja secara legal kami diminta menyerahkan isi percakapan itu. Menurut saya, ini hal yang sangat kacau,” kata Altman, dikutip dari Futurism, Senin (28/7/2025).

Privasi Pengguna Masih Abu-abu

image 24
Sam Altman, CEO OpenAI

Berbeda dengan hubungan antara pasien-dokter, klien-pengacara, atau pasien-psikolog yang diatur hukum untuk menjaga kerahasiaan, interaksi dengan AI belum termasuk dalam kategori yang dilindungi secara hukum. Ini berarti, percakapan Anda dengan chatbot AI belum tentu bersifat rahasia jika terjadi konflik hukum.

Kondisi ini menimbulkan kekhawatiran mengingat banyak pengguna yang menggunakan ChatGPT untuk membahas hal-hal sensitif, termasuk masalah keluarga, kesehatan mental, dan bahkan pengalaman traumatis. Tanpa regulasi khusus, informasi yang seharusnya bersifat privat bisa saja digunakan pihak ketiga dalam proses hukum.

Altman sendiri mengakui bahwa perusahaan seperti OpenAI harus tunduk pada sistem hukum yang berlaku. Jika ada perintah pengadilan, maka mereka bisa saja diminta untuk menyerahkan data log percakapan pengguna. Ia pun menyebut situasi ini sebagai “kacau” karena belum ada aturan khusus yang memberikan perlindungan setara dengan profesi profesional lain.

Risiko Kebocoran Data oleh AI

Sebelumnya, peneliti dari Carnegie Mellon University pernah memperingatkan bahwa model AI seperti ChatGPT berisiko memunculkan kembali informasi pengguna yang pernah direkam dalam sesi percakapan sebelumnya. Bahkan, bukan tidak mungkin informasi tersebut muncul dalam interaksi dengan pengguna lain—sebuah risiko keamanan yang perlu mendapat perhatian serius.

Altman pun berharap akan ada payung hukum yang bisa mengatur jenis perlindungan baru untuk interaksi manusia dengan AI, agar data pengguna tidak disalahgunakan atau terekspos dalam konteks yang merugikan.

Gunakan AI Secara Bijak

Sampai regulasi privasi AI benar-benar diterapkan secara luas, pengguna diimbau untuk berhati-hati dalam menyampaikan informasi pribadi saat menggunakan ChatGPT atau chatbot sejenis. Hindari memasukkan data-data sensitif seperti informasi kesehatan, keuangan, atau masalah hukum yang sedang dihadapi.

Era kecerdasan buatan membawa berbagai kemudahan, namun juga membuka celah baru dalam keamanan data. Kesadaran dan kehati-hatian menjadi langkah awal untuk menjaga privasi di tengah perkembangan teknologi yang begitu cepat. (woke3)

Bagikan Berita Ini