Microsoft Akui Bug Copilot Bocorkan Ringkasan Email Rahasia Pengguna

AKURAT.CO Microsoft mengakui adanya bug pada Microsoft 365 Copilot Chat yang membuat sistem sempat memproses dan merangkum email berlabel rahasia. Kejadian ini kembali memicu kekhawatiran soal keamanan data dalam penggunaan kecerdasan buatan (AI) di lingkungan kerja.
Selama ini Copilot Chat dipasarkan sebagai asisten AI yang aman untuk kebutuhan perusahaan. Layanan ini terintegrasi dengan Outlook dan Teams untuk membantu merangkum email serta menyusun respons otomatis.
Dalam kasus terbaru, Copilot diketahui dapat menampilkan isi email dengan label sensitivitas tinggi. Konten yang muncul termasuk pesan di folder Draft dan Sent Items pada Outlook desktop.
Padahal, email tersebut seharusnya dilindungi oleh kebijakan pencegahan kebocoran data atau DLP. Artinya, sistem tidak semestinya memproses atau merangkum pesan berlabel rahasia.
Microsoft menyebut akar masalah berasal dari kesalahan kode dan menegaskan kontrol akses tetap berjalan normal. Namun, perusahaan mengakui perilaku ini tidak sesuai dengan desain awal Copilot yang seharusnya mengecualikan konten sensitif.
"Kami mengidentifikasi dan mengatasi masalah di mana Obrolan Copilot Microsoft 365 dapat mengembalikan konten dari email berlabel rahasia yang ditulis oleh pengguna dan disimpan dalam Draf dan Item Terkirim mereka di desktop Outlook," ujar juru bicara Microsoft, dikutip dari BBC, Minggu (22/2/2026).
Pembaruan konfigurasi kini telah dirilis untuk pelanggan enterprise secara global. Laporan awal bug ini diungkap oleh Bleeping Computer, sementara NHS Inggris memastikan tidak ada data pasien yang bocor.
Risiko AI Generatif di Lingkungan Kerja
Insiden ini menjadi pengingat bahwa penerapan AI generatif di sektor enterprise tidak lepas dari risiko. Integrasi teknologi ini menghadirkan tantangan baru yang berbeda dari penggunaan chatbot publik.
Berbeda dengan layanan AI umum, Microsoft 365 Copilot terhubung langsung ke data internal perusahaan. Aksesnya mencakup email, dokumen, hingga percakapan tim yang bersifat sensitif.
Analis Gartner, Nader Henein, menilai kesalahan seperti ini sulit dihindari. Menurutnya, inovasi AI yang melaju cepat kerap tidak diimbangi kesiapan tata kelola.
"Dalam keadaan normal, organisasi hanya akan mematikan fitur dan menunggu sampai tata kelola menyusul," kata Henein.
Dalam kondisi ideal, perusahaan dapat menunda aktivasi fitur baru sampai sistem pengawasan siap. Namun persaingan dan tren AI membuat banyak organisasi bergerak lebih cepat dari kesiapan kebijakan internalnya.
Profesor Alan Woodward dari University of Surrey juga mengingatkan pentingnya pendekatan 'private by default'. Ia menegaskan bahwa di tengah kompleksitas dan percepatan pengembangan AI, risiko bug dan kebocoran data tetap terbuka.
lPasti akan ada bug dalam alat-alat ini, paling tidak karena mereka maju dengan kecepatan yang sangat tinggi, jadi meskipun kebocoran data mungkin tidak disengaja, itu akan terjadi," jelasnya.
Bagi pelanggan korporasi, insiden ini menegaskan pentingnya audit konfigurasi keamanan secara menyeluruh. Evaluasi kebijakan DLP dan uji coba fitur AI sebelum peluncuran luas menjadi langkah yang tidak bisa diabaikan.
AI yang terhubung langsung ke data sensitif membutuhkan pengawasan ekstra ketat. Standarnya jelas lebih tinggi dibanding penggunaan chatbot publik biasa.
Di sisi lain, kasus ini menjadi ujian serius bagi Microsoft dan penyedia AI enterprise lainnya. Keunggulan utama solusi AI korporasi memang bertumpu pada keamanan dan kepatuhan regulasi.
Ke depan, transparansi pembaruan serta kontrol granular untuk admin TI akan semakin krusial. Dalam persaingan menghadirkan AI tercanggih, keamanan data tetap menjadi fondasi yang tidak boleh dikorbankan.
Dilarang mengambil dan/atau menayangkan ulang sebagian atau keseluruhan artikel di atas untuk konten akun media sosial komersil tanpa seizin redaksi.
Berita Terkait
Berita Terkini








