Il Dipendente di Samsung utilizza ChatGPT, causando la diffusione di dati confidenziali

Untitled design 3 (1).png

La divisione dei semiconduttori di Samsung si è affidata a ChatGPT per aiutare a risolvere problemi nel loro codice sorgente. Tuttavia, mentre utilizzavano il chatbot AI, hanno divulgate accidentalmente informazioni riservate come il codice sorgente di un nuovo programma e appunti di riunioni interne sul loro hardware. Purtroppo, questo non è stato un caso isolato, in quanto sono stati segnalati tre incidenti in un mese.

Per evitare simili violazioni in futuro, Samsung sta lavorando allo sviluppo di un proprio strumento AI simile a ChatGPT che sarà esclusivamente per l'uso interno dei dipendenti. Ciò consentirà ai lavoratori della fabbrica di ricevere assistenza rapida mentre si preservano le informazioni sensibili dell'azienda. Tuttavia, questo nuovo strumento elaborerà solo prompt di dimensioni inferiori o uguali a 1024 byte.

Il problema è stato causato dal fatto che ChatGPT è gestito da un'azienda terza che utilizza server esterni. Pertanto, quando Samsung ha inserito il loro codice, sequenze di test e contenuti delle riunioni interne nel programma, si sono verificate fughe di dati. Samsung ha prontamente informato i suoi dirigenti e dipendenti del rischio di compromissione delle informazioni riservate. Fino all'11 marzo, Samsung non aveva consentito ai propri dipendenti di utilizzare il chatbot.

Samsung non è l'unica azienda alle prese con questo problema. Molte aziende stanno limitando l'uso di ChatGPT fino a quando non stabiliscono una politica chiara riguardo all'uso dell'IA generativa. Anche se ChatGPT offre un'opzione per rinunciare alla raccolta dei dati degli utenti, è importante notare che le informazioni fornite al servizio potrebbero comunque essere accessibili dal suo sviluppatore.

Cosa è ChatGPT e come funziona?

ChatGPT è un'applicazione AI sviluppata da OpenAI che utilizza il deep learning per produrre testo simile a quello umano in risposta agli input degli utenti. Può generare testo in vari stili e per diverse finalità, inclusa la scrittura di testi promozionali, la risposta a domande, la stesura di email, la conduzione di conversazioni, la traduzione del linguaggio naturale in codice e la spiegazione del codice in diversi linguaggi di programmazione.

ChatGPT funziona prevedendo la prossima parola in un dato testo utilizzando i modelli che ha imparato da un'enorme quantità di dati durante il processo di addestramento. Analizzando il contesto del prompt e il suo apprendimento passato, ChatGPT genera una risposta che dovrebbe essere il più naturale e coerente possibile.

Che misure ha adottato Samsung per prevenire futuri leak?

In seguito alle perdite di dati causate da ChatGPT, Samsung ha preso diverse misure per evitare che tali incidenti accadano nuovamente. In primo luogo, l'azienda ha consigliato ai suoi dipendenti di fare attenzione quando condividono dati con ChatGPT. Hanno anche implementato una restrizione sulla lunghezza delle domande inviate al servizio, limitandole a 1024 byte.

Inoltre, Samsung sta sviluppando attualmente uno strumento IA simile a ChatGPT, ma esclusivamente per l'uso interno dei dipendenti. Ciò garantirà che i lavoratori delle fabbriche ricevano un'assistenza tempestiva mentre si proteggono le informazioni aziendali riservate. Fino allo sviluppo di questo strumento, Samsung aveva avvertito i suoi dipendenti sui potenziali rischi associati all'uso di ChatGPT. Hanno anche sottolineato che i dati inseriti su ChatGPT vengono trasmessi e memorizzati su server esterni, rendendo impossibile per l'azienda controllare i dati una volta consegnati.

Quali sono state le conseguenze per i dipendenti che hanno divulgato dati riservati?

Le conseguenze per i dipendenti di Samsung che hanno divulgato dati confidenziali a ChatGPT non sono state esplicitamente indicate nelle informazioni disponibili. Tuttavia, Samsung Electronics sta adottando misure per prevenire ulteriori fughe di informazioni sensibili tramite ChatGPT, inclusa l'imposizione di un limite di 1024 byte sulla dimensione delle domande inviate. L'azienda ha inoltre avvertito i suoi dipendenti dei potenziali rischi nell'utilizzo di ChatGPT.

Inoltre, Samsung Semiconductor sta sviluppando il proprio strumento di intelligenza artificiale per l'uso interno dei dipendenti, che sarà limitato alla elaborazione di prompt inferiori a 1024 byte. Queste azioni indicano che Samsung sta prendendo sul serio la protezione delle sue informazioni riservate e sta adottando misure per mitigare i rischi associati all'utilizzo di ChatGPT.

Di che tipo di informazioni riservate si tratta?

Quante volte i dipendenti di Samsung hanno divulgato dati confidenziali a ChatGPT?

Secondo i risultati della ricerca, dipendenti Samsung hanno divulgato informazioni riservate dell'azienda a ChatGPT in almeno tre occasioni.

Articoli correlati

Mostra di più >>

Sblocca il potere dell'intelligenza artificiale con HIX.AI!