I ricercatori di Google DeepMind e diverse università hanno scoperto un modo semplice per ottenere i dati di addestramento utilizzati da ChatGPT. Facendo ripetere al chatbot una determinata parola indefinitamente, vengono esposte informazioni personali, tra le altre cose.
Gli scienziati lo avranno martedì carta pubblicato che spiega come ottengono i dati di addestramento. “Con un budget di soli $ 200 per ChatGPT (gpt-3.5-turbo), siamo stati in grado di recuperare oltre 10.000 modelli di allenamento unici.” Scrivi ricercatori.
Hanno mostrato al chatbot alcune parole, come “Poesia“, ha ripetuto all’infinito. Ciò ha costretto il modello linguistico a deviare dalle sue procedure di formazione e “tornare all’obiettivo originale della modellazione linguistica” e sfruttare il dettaglio nei suoi dati di formazione.
I dati includono dati provenienti dalla rete Internet pubblica, ma non necessariamente da siti Web pubblici. Ciò include nomi, numeri di telefono, indirizzi e-mail e indirizzi di casa. I ricercatori affermano che è allarmante che ChatGPT possa essere facilmente utilizzato in modo improprio e affermano che il loro studio dovrebbe servire da “ammonimento per coloro che stanno formando modelli futuri”.
Il gruppo di scienziati ha condiviso il proprio articolo con OpenAI il 30 agosto e ha poi aspettato novanta giorni prima della pubblicazione. L’attacco specifico non funziona più, ma la vulnerabilità sottostante non è stata ancora risolta, hanno scritto i ricercatori.