Penso che sia una scelta interessante da parte di byob. È come se stessero consapevolmente spingendo oltre il limite. All'inizio pensavo che chiedessero cose stupide o irragionevoli, ma ora penso che lo facciano apposta per mostrare dove la legge è in conflitto con la realtà.
Questi tipi di moduli non dispongono di un database di facile utilizzo in cui è possibile inserire ed esportare i dati come desiderato. È un riepilogo molto condensato dei dati di addestramento che contiene solo parti dell'originale.
Da un lato, sarebbe difficile estrarre tali dati dal modello.
D’altronde questo è il problema con OpenAI, la legge è legge.
D'altra parte, cancellare quei dati non è sufficiente, perché se GPT non ne viene a conoscenza, distorcerà i dati. A mio avviso, la legge (sulla privacy) non ha importanza se i dati personali sono corretti o meno.
D'altra parte, i dati di alcune persone sono così ampiamente conosciuti che non costituiscono una violazione della privacy. Come puoi mantenere segreto il compleanno del Re se è anche una festa nazionale?
Tecnicamente, mi aspetterei che GPT aggiungesse un filtro sul retro che controlli se contiene dati personali. Fanno la stessa cosa anche con altro spam (che è molto inaffidabile).
Ci hanno pensato abbastanza bene con BYOB e sono curioso di vedere cosa succede perché non vedo risposte o soluzioni facili.
[Reactie gewijzigd door CAPSLOCK2000 op 29 april 2024 12:25]