Akurat

Aktif Gunakan Open AI ChatGPT? Jangan Pernah Bagikan 5 Hal Ini

Fajar Rizky Ramadhan | 9 April 2025, 07:00 WIB
Aktif Gunakan Open AI ChatGPT? Jangan Pernah Bagikan 5 Hal Ini

AKURAT.CO ChatGPT dan chatbot AI lainnya kini telah menjadi teman sehari-hari bagi jutaan orang di seluruh dunia. Mulai dari menjawab pertanyaan akademis, membantu pekerjaan kantor, hingga menjadi asisten pribadi.

Namun, di balik kecanggihannya, para pakar teknologi memperingatkan bahwa AI publik seperti ChatGPT juga menyimpan risiko besar terhadap privasi.

Menurut data terbaru, lebih dari 100 juta orang menggunakan ChatGPT setiap hari dengan lebih dari satu miliar pertanyaan diajukan. Meski memudahkan, perlu diingat: setiap data yang kamu masukkan bisa saja direkam, dianalisis, bahkan digunakan untuk melatih AI lebih lanjut.

Sebelum kamu mengetik sesuatu yang bersifat pribadi atau sensitif, pertimbangkan lima hal yang sebaiknya tidak pernah kamu bagikan kepada ChatGPT atau AI publik lainnya:

1. Permintaan Ilegal atau Tidak Etis

Meminta cara melakukan kejahatan, manipulasi psikologis, atau menyebarkan informasi palsu bisa berujung pada masalah hukum. Beberapa negara bahkan telah menetapkan hukum ketat terkait penggunaan AI, termasuk pelarangan konten deepfake dan penyalahgunaan informasi.

Baca Juga: 5 Aplikasi Gratis Bikin Foto Ala Studio Ghibli, Selain ChatGPT

2. Login dan Kata Sandi

Memberikan username dan password ke AI bukan hanya tidak aman, tapi juga sangat berisiko. Sekali informasi masuk ke server cloud, kamu tidak lagi punya kendali penuh. Sudah ada kasus di mana data pengguna tidak sengaja terekspos ke orang lain. Hindari risiko ini dengan tidak pernah memasukkan kredensial apa pun ke chatbot publik.

3. Data Finansial

Nomor rekening, kartu kredit, atau informasi keuangan lainnya seharusnya hanya dibagikan pada sistem yang memang didesain aman, seperti situs perbankan. ChatGPT tidak dilengkapi enkripsi atau perlindungan data seperti itu, dan kesalahan kecil bisa berujung pada penipuan, pencurian identitas, atau serangan siber.

4. Informasi Rahasia

Dokumen bisnis, data internal perusahaan, atau informasi sensitif lainnya jangan pernah dimasukkan ke chatbot publik. Kasus seperti yang menimpa Samsung pada 2023—di mana karyawan secara tidak sengaja membocorkan data penting ke AI—menjadi peringatan bagi semua pihak.

5. Informasi Medis Pribadi

Meski menggoda untuk bertanya soal gejala atau penyakit ke AI, informasi medis sangat sensitif dan harus dijaga kerahasiaannya. Apalagi bagi tenaga medis atau institusi kesehatan, membocorkan data pasien bisa berarti pelanggaran hukum dan etika yang serius.

Baca Juga: Rencana Tarif Baru Trump Diduga Mirip dengan Jawaban Chatbot AI ChatGPT

Menggunakan AI seperti ChatGPT memang sangat membantu, tapi kita tetap harus waspada. Anggaplah semua yang kamu ketik bisa menjadi informasi publik.

Maka, jangan pernah membagikan apa pun yang kamu tidak ingin dunia tahu. Kesadaran dan edukasi digital menjadi kunci agar kita bisa memanfaatkan teknologi tanpa terjebak dalam jebakan privasi.

Dilarang mengambil dan/atau menayangkan ulang sebagian atau keseluruhan artikel di atas untuk konten akun media sosial komersil tanpa seizin redaksi.