Hindari Menginput Informasi Ini ke ChatGPT untuk Keperluan Apapun

Oleh: Dini Adica
Sabtu, 19 April 2025 | 11:44 WIB
Ada lima jenis informasi yang sebaiknya tidak diinput ke ChatGPT, karena sistemnya bukan tempat yang aman buat simpan data pribadi.

AI sekarang sudah menjadi bagian tak terpisahkan dari kehidupan banyak orang. Dari sekadar curhat sama ChatGPT, bikin surat lamaran kerja berikut CV-nya, menulis esai, iseng ikut tren AI Barbie di medsos, hingga mengerjakan video iklan, semua memanfaatkan kecanggihan chatbot ini.

Kejelian menyusun prompt (perintah) AI secara detail sangat memegang peranan dalam menghasilkan konten AI yang sesuai keinginan. Namun di balik semua kemudahan itu, ada beberapa hal penting yang sebaiknya jangan pernah disampaikan ke ChatGPT. Ini serius, lho.

Jennifer King, anggota Stanford Institute for Human-Centered Artificial Intelligence, memberi peringatan tegas soal lima informasi penting yang sebaiknya tidak dibagikan ke chatbot seperti ChatGPT. Alasannya: bukan karena ChatGPT jahat, tapi karena sistemnya memang bukan tempat yang aman buat simpan data pribadi.

Baca juga: Anti Antre, Berikut Tips Membeli Emas Digital 

Mari kita bahas satu per satu informasi tersebut.

1. Identitas Pribadi

Ini nomor satu dan paling penting. Jangan pernah memberitahu informasi pribadi seperti nomor KTP, paspor, SIM, alamat rumah, tanggal lahir, apalagi nomor telepon.

Menurut Jennifer King, begitu kamu mengetikkan sesuatu ke chatbot, kamu sudah "kehilangan kepemilikan" atas data itu. Artinya? Ya, data kamu bisa saja dipakai untuk hal-hal lain, meskipun niatnya baik.

OpenAI sendiri sebagai pembuat ChatGPT juga sudah pernah menyampaikan: "Kami ingin model AI kami belajar tentang dunia, bukan tentang individu." Jadi, kalau kamu curhat atau bikin prompt AI yang ada data pribadi, mending pikir dua kali.

2. Informasi Finansial

Ini sebenarnya berlaku buat semua hal di internet, bukan cuma ChatGPT. Jangan iseng memasukkan nomor rekening, kartu kredit, atau bahkan detail transfer. Sekali data itu bocor atau terekam oleh sistem, bisa dibayangkan risikonya. Bisa dipakai orang yang nggak bertanggung jawab buat akses rekening kamu. Bahaya banget, kan?

Baca juga: Rupiah Tertekan: Dampak dan Strategi Bisnis di Tengah Gejolak Global

3. Rekam Medis

Digifriends pernah terpikir untuk bertanya pada ChatGPT soal hasil lab atau diagnosa dokter? Sebaiknya jangan terlalu detail, deh. ChatGPT bukan dokter, dan yang lebih penting, tools ini tidak terikat aturan privasi seperti di dunia medis.

Kalau kamu keukeuh ingin mendiskusikan hasil rekam medis, minimal crop dulu gambar atau hasilnya, dan pastikan tidak tercantum nama, nomor rekam medis, atau data pribadi kamu lainnya yang bisa diidentifikasi. Ini saran langsung dari Jennifer King, biar datanya nggak "mentah-mentah" masuk ke sistem.

4. Data Kantor atau Klien

Nah, ini yang bisa jadi jebakan banget buat kita yang bekerja. Misalnya kamu pakai ChatGPT buat membantu menulis email, merapikan laporan, atau menyusun presentasi. Pastikan nggak ada data internal atau info sensitif klien di dalamnya. Salah-salah, bisa kena masalah hukum atau bahkan pelanggaran NDA (Non-Disclosure Agreement).

Wall Street Journal bahkan bilang hal itu bisa bikin Digifriends kena masalah besar kalau sampai informasi rahasia kantor bocor lewat chatbot.

5. Informasi Login

Ini juga sering kejadian. Orang menginput username dan password ke ChatGPT untuk membantu membuka akun atau mengerjakan sesuatu. Kelihatannya praktis, ya? Tapi berbahaya banget. ChatGPT tidak punya sistem penyimpanan yang aman untuk menjaga kerahasiaan login kamu.

Kalau kamu butuh tempat menyimpan password, mending pakai aplikasi manajemen password yang terpercaya. Jangan pernah pakai ChatGPT untuk hal-hal seperti itu. OpenAI sendiri sudah tegas menyatakan di situs mereka: “Please don’t share any sensitive information in your conversations.”

Baca juga: 10 Kota Paling Aman di Dunia untuk Perempuan Digital Nomad

Kesimpulannya, ChatGPT memang pintar, tapi kamu tetap harus hati-hati.

"Begitu kamu memasukkan data ke chatbot, kamu nggak bisa tarik balik," kata Jennifer King sekali lagi. Jadi, bijak-bijaklah saat ngobrol sama AI.

Anggap saja kamu sedang ngobrol dengan teman sekantor yang superpintar tapi bukan orang HR, bukan dokter, dan pastinya bukan brankas data. Jadi, untuk info-info sensitif sebaiknya simpan di tempat yang lebih aman.

Sumber: Tyla.com