Berita Bekasi Nomor Satu

Latah Ikutan Tren ChatGPT, Data Samsung Malah Bocor

Ilustrasi teknologi ChatGPT yang dipakai Samsung justru menyebabkan kebocoran. (Cybernews).

RADARBEKASI.ID, KORSEL – Samsung tampaknya latah ikut-ikutan tren ChatGPT, teknologi Artificial Intelligence (AI) generatif yang sedang jadi perbincangan.

Hal ini dibuktikan dengan pengenalan ChatG PT Samsung baru-baru ini kepada karyawannya yang dimaksudkan untuk merampingkan proses dan meningkatkan bisnis chip-nya.

Nahas bagi Samsung, teknologi ChatGPT yang sedang digarap lebih lanjut oleh Samsung justru menjadi bumerang bagi dirinya sendiri.

BACA JUGA: Ini Pesaing ChatGPT dari Google

Setelah hanya tiga minggu digunakan, dilaporkan terjadi tiga kebocoran informasi semikonduktor rahasia, menyebabkan kekhawatiran tentang keamanan data dan pelanggaran kerahasiaan.

Kebocoran mulai terjadi ketika karyawan Samsung memasukkan informasi sensitif. Informasi yang dianggap sensitif itu mencakup data pengukuran peralatan semikonduktor dan kode sumber, ke dalam ChatGPT.

BACA JUGA: OpenAI ChatGPT Terbaru Bisa Buat Contekan Akademik

Akibatnya, informasi ini menjadi bagian dari database pembelajaran AI.

Apesnya lagi, informasi yang sejatinya merupakan “dapur” Samsung ini tidak hanya dapat diakses oleh Samsung tetapi juga oleh siapa saja yang menggunakan ChatGPT.

Kebocoran pertama terjadi ketika seorang karyawan di departemen Semikonduktor dan Solusi Perangkat memasukkan kode sumber yang terkait dengan database pengukuran peralatan semikonduktor ke dalam ChatGPT untuk menemukan solusi cepat atas suatu masalah.

BACA JUGA: Alibaba Tergoda OpenAI, Berencana Bikin Pesaing ChatGPT

Sementara kebocoran kedua terjadi saat karyawan lain memasukkan kode terkait hasil dan optimalisasi.

Belum usai, kebocoran ketiga terjadi saat karyawan meminta ChatGPT untuk membuat notulen rapat.

Samsung sendiri telah mengambil langkah-langkah untuk mencegah kebocoran lebih lanjut. Termasuk, raksasa teknologi Korea Selatan (Korsel) itu menginstruksikan karyawan untuk berhati-hati tentang data yang mereka bagikan dengan ChatGPT dan membatasi kapasitas setiap entri hingga maksimal 1.024 byte.

Perusahaan juga telah mengklarifikasi bahwa setelah informasi dimasukkan ke chatbot AI, informasi itu dikirim ke server eksternal yang tidak dapat dipulihkan atau dihapus. Betul-betul apes bagi Samsung.

BACA JUGA: Ambisi Tiongkok Soal Teknologi Kecerdasan Buatan Terhalang 2 Masalah Ini

Insiden ini menyoroti pentingnya keamanan data dan kebutuhan perusahaan untuk mempertimbangkan dengan hati-hati potensi risiko dan manfaat dari pengenalan chatbot AI ke tempat kerja mereka.

Meskipun chatbot AI dapat meningkatkan efisiensi dan merampingkan proses, mereka juga memerlukan perlindungan dan pelatihan yang tepat untuk memastikan kerahasiaan dan keamanan informasi sensitif. (jpc)