Tekno

Riset LayerX: 77 Persen Karyawan Tak Sadar Bocorkan Data Perusahaan ke ChatGPT

Studi LayerX mengungkap 77 persen karyawan tanpa sadar membocorkan data sensitif perusahaan ke ChatGPT. Aktivitas ini mayoritas dilakukan lewat...

Penulis: Redaksi | Editor: Donny Yosua
Gridpop.id
RAHASIA PERUSAHAAN BOCOR - Ilustrasi. Studi LayerX mengungkap 77 persen karyawan tanpa sadar membocorkan data sensitif perusahaan ke ChatGPT. Aktivitas ini mayoritas dilakukan lewat akun pribadi yang tak diawasi perusahaan. 

TRIBUNTORAJA.COM - Studi keamanan siber terbaru yang dilakukan LayerX mengungkap temuan mengejutkan soal perilaku karyawan dalam menggunakan kecerdasan buatan (AI) di lingkungan kerja.

Dalam laporan bertajuk Enterprise AI and SaaS Data Security Report 2025, ditemukan bahwa banyak karyawan tanpa sadar membocorkan informasi sensitif perusahaan ke chatbot seperti ChatGPT.

LayerX mencatat, 45 persen karyawan di perusahaan-perusahaan besar kini menggunakan AI generatif seperti ChatGPT untuk membantu pekerjaan mereka.

 

 

Dari jumlah tersebut, 77 persen di antaranya diketahui pernah menyalin dan menempelkan data perusahaan ke ruang percakapan chatbot, termasuk informasi sensitif seperti data pribadi (PII) dan data kartu pembayaran (PCI).

Lebih lanjut, 82 persen aktivitas ini dilakukan melalui akun pribadi, bukan akun korporat yang diawasi sistem keamanan perusahaan.

Kondisi ini membuat perusahaan tidak memiliki kendali atas data yang dibagikan, termasuk ke mana data itu tersimpan atau digunakan.

 

Baca juga: Spesifikasi Samsung Galaxy Z TriFold Bocor, Punya Tiga Baterai dan Layar Lipat Ganda

 

LayerX juga mencatat bahwa 40 persen file yang diunggah ke chatbot AI berisi data pribadi dan finansial, dengan 39 persen berasal dari akun non-korporat.

Menurut laporan tersebut, praktik ini membuka peluang besar terjadinya kebocoran data yang bisa berujung pada kerugian finansial maupun reputasi perusahaan.

 

Baca juga: Komdigi Gelar IGDX 2025 di Bali, Tempat Kumpul Penerbit dan Pengembang Video Game Indonesia

 

Kasus Nyata Kebocoran Data

Dilansir dari The Register, Senin (13/10/2025), CEO LayerX Or Eshed menegaskan bahwa kebocoran data melalui AI bukan ancaman fiktif.

Ia mencontohkan kasus Samsung pada 2023, ketika seorang karyawan diduga mengunggah kode internal perusahaan ke ChatGPT.

Akibat insiden tersebut, Samsung sempat melarang seluruh karyawannya menggunakan chatbot AI.

 

Baca juga: Poco M7 Resmi Rilis di Indonesia, Usung Baterai Besar dan Harga Rp2 Jutaan

 

“Fenomena seperti ini menunjukkan risiko nyata. Banyak karyawan kini berani memasukkan data internal perusahaan ke AI tanpa memahami konsekuensinya,” ujar Eshed.

Ia menambahkan, praktik itu bisa memicu persoalan serius seperti pelanggaran regulasi, masalah kepatuhan hukum, hingga risiko geopolitik bila data jatuh ke tangan pihak asing.

 

Baca juga: Youtuber Terpopuler MrBeast Khawatir soal Perkembangan AI

 

ChatGPT Jadi Favorit Karyawan

Laporan LayerX juga menyoroti tren baru bernama “shadow IT”, yaitu kebiasaan karyawan menggunakan akun pribadi untuk mengakses layanan kerja, termasuk ChatGPT.

Tren ini tidak hanya terjadi pada AI generatif, tetapi juga di aplikasi lain seperti Zoom, Salesforce, Microsoft Online, dan Google Workspace.

Menariknya, 9 dari 10 karyawan mengaku lebih sering menggunakan ChatGPT dibandingkan platform AI lainnya.

Penetrasi penggunaan ChatGPT di perusahaan kini mencapai 43 persen, mendekati popularitas Zoom (75 persen) dan Google Services (65 persen).

Angka ini jauh melampaui Slack (22 persen), Salesforce (18 persen), dan Atlassian (15 persen).

Dengan semakin masifnya penggunaan AI di kantor, LayerX menyarankan perusahaan untuk menerapkan sistem Single Sign-On (SSO) di seluruh aplikasi yang terhubung.

Teknologi ini diyakini dapat meningkatkan pengawasan arus data, visibilitas aktivitas karyawan, dan keamanan operasional perusahaan.

(*)

Rekomendasi untuk Anda

Ikuti kami di

Berita Terkini

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved