
Kecerdasan buatan kini menjadi bagian penting dari dunia kerja modern. Banyak karyawan menggunakan ChatGPT untuk membantu menulis laporan, membuat analisis, hingga menyusun presentasi.
Namun, sebuah riset terbaru menemukan sisi berbahaya di balik tren ini. ChatGPT ternyata menjadi celah baru kebocoran data perusahaan. Banyak pengguna tanpa sadar membagikan informasi sensitif saat memanfaatkan chatbot tersebut untuk pekerjaan kantor.
Fenomena ini membuat para ahli keamanan siber waspada. Mereka menilai, tanpa panduan yang jelas, AI generatif bisa berubah menjadi “pengumpul rahasia perusahaan” tanpa disadari pengguna.
Riset Mengungkap Pola Kebocoran
Penelitian dari CyberSafe Institute menunjukkan bahwa 32% karyawan pernah memasukkan data rahasia ke chatbot seperti ChatGPT. Data itu mencakup laporan keuangan, kontrak bisnis, hingga kode pemrograman internal.
Survei ini dilakukan di 12 negara dengan lebih dari 5.000 responden. Hasilnya, 1 dari 5 pekerja tidak menyadari bahwa data yang dimasukkan ke chatbot bisa tersimpan atau dianalisis oleh sistem AI.
Bahkan, 7% responden mengaku pernah menyalin isi email penting atau rancangan proyek untuk “meminta perbaikan bahasa.”
“Sebagian besar kebocoran terjadi tanpa sengaja. Mereka hanya ingin bekerja lebih cepat,” jelas Dr. Amelia Cross, peneliti utama riset tersebut.
Mengapa ChatGPT Berisiko?
ChatGPT memproses data pengguna untuk menghasilkan jawaban. Walaupun OpenAI menyatakan bahwa data tidak otomatis digunakan untuk pelatihan model, risiko kebocoran tetap ada bila pengguna memasukkan informasi sensitif.
Ada tiga penyebab utama mengapa ChatGPT bisa menjadi sumber risiko:
- Kurangnya kesadaran pengguna. Banyak karyawan belum memahami batas antara data publik dan rahasia.
- Tidak adanya kebijakan perusahaan. Beberapa organisasi belum mengatur cara aman memakai AI di tempat kerja.
- Jejak digital yang sulit dihapus. Data yang dikirim ke cloud bisa tetap tersimpan di sistem sementara waktu.
Dengan kondisi ini, niat baik untuk efisiensi bisa berubah menjadi ancaman keamanan.
Contoh Kasus di Dunia Nyata
Pada awal 2024, tiga karyawan perusahaan teknologi besar di Korea Selatan secara tidak sengaja memasukkan kode sumber rahasia ke ChatGPT. Mereka ingin memperbaiki bug, tetapi kode itu tersimpan di sistem cloud.
Setelah insiden itu, perusahaan langsung melarang penggunaan ChatGPT di kantor.
Kasus serupa terjadi di Eropa. Seorang analis keuangan menggunakan ChatGPT untuk merangkum dokumen klien. Akibatnya, sistem keamanan internal mendeteksi pengiriman data rahasia ke server luar negeri.
Kedua insiden tersebut membuktikan bahwa kebocoran tidak selalu disebabkan oleh peretasan, melainkan oleh ketidaktahuan karyawan.
Reaksi Perusahaan dan Pemerintah
Beberapa perusahaan besar sudah mengambil tindakan pencegahan. Apple, Samsung, JPMorgan, dan Amazon termasuk yang melarang penggunaan ChatGPT untuk pekerjaan internal.
Mereka khawatir data strategis seperti desain produk dan riset teknologi tersimpan di sistem AI.
Sementara itu, Uni Eropa telah mengesahkan EU AI Act yang menegaskan pentingnya transparansi dan perlindungan data dalam penggunaan AI.
Di Indonesia, Badan Siber dan Sandi Negara (BSSN) mengingatkan instansi publik agar berhati-hati menggunakan AI untuk memproses informasi rahasia.
Ancaman Tak Terlihat
Berbeda dengan serangan hacker, kebocoran data melalui ChatGPT sering kali tidak langsung terdeteksi.
Informasi yang dikirim ke chatbot mungkin tidak bocor secara publik, tetapi tetap tersimpan di server sementara. Dalam kondisi tertentu, data tersebut bisa diakses kembali untuk debugging atau pengujian sistem.
Selain itu, para peneliti menemukan risiko model inversion. Teknik ini memungkinkan pihak tertentu mengekstrak kembali data sensitif dari model AI yang pernah dilatih menggunakan dataset pengguna.
Walau kemungkinannya kecil, ancaman ini meningkat seiring makin seringnya AI dipakai di dunia kerja.
Langkah Pencegahan yang Aman
Agar penggunaan ChatGPT tetap aman, para ahli menyarankan langkah berikut:
- Buat kebijakan AI internal. Setiap perusahaan wajib memiliki aturan tentang data yang boleh dimasukkan ke AI.
- Gunakan AI versi bisnis. Pilih layanan seperti ChatGPT Enterprise yang menjamin privasi dan tidak menyimpan data.
- Edukasi karyawan. Latih pegawai agar memahami risiko keamanan digital.
- Pasang filter otomatis. Gunakan sistem yang bisa memblokir data sensitif sebelum dikirim ke chatbot.
- Audit penggunaan AI. Lakukan pemeriksaan rutin terhadap aktivitas data perusahaan.
Dengan langkah-langkah ini, risiko kebocoran bisa ditekan tanpa menghilangkan manfaat AI.
Karyawan di Tengah Dilema
Meski berisiko, banyak karyawan merasa AI seperti ChatGPT meningkatkan produktivitas kerja.
Mereka dapat membuat laporan, analisis, dan strategi bisnis dengan lebih cepat. Karena itu, sebagian perusahaan enggan melarang total penggunaan AI.
Para ahli menilai, pendekatan terbaik adalah menyeimbangkan keamanan dan efisiensi. Dengan kebijakan yang jelas, karyawan tetap bisa memanfaatkan AI tanpa menimbulkan ancaman data.
“AI tidak berbahaya jika digunakan dengan panduan yang tepat,” tegas Dr. Cross.
Menuju AI yang Aman dan Etis
Sejumlah perusahaan kini mengembangkan AI enterprise yang lebih aman untuk bisnis. Sistem ini memungkinkan AI bekerja tanpa menyimpan data ke server publik.
ChatGPT sendiri telah merilis versi bisnis dengan enkripsi tambahan dan kebijakan privasi ketat. Tujuannya adalah melindungi data korporasi dari kebocoran yang tidak disengaja.
Ke depan, teknologi seperti federated learning dan data anonymization akan menjadi kunci untuk menciptakan AI yang aman sekaligus cerdas.
Kesimpulan
Riset terbaru membuktikan bahwa ChatGPT dapat menjadi celah kebocoran data baru di dunia kerja modern. Banyak karyawan tanpa sadar membocorkan informasi rahasia karena kurangnya pemahaman dan pengawasan.
Namun, solusi tidak terletak pada larangan total. Dengan kebijakan, pelatihan, dan teknologi keamanan yang kuat, perusahaan tetap bisa memanfaatkan AI dengan aman.
Pada akhirnya, keamanan data bukan hanya tanggung jawab teknologi, tetapi juga perilaku manusia yang menggunakannya.