Header Ads

Vaja, els treballadors de Samsung van filtrar accidentalment secrets comercials mitjançant ChatGPT

 Vaja, els treballadors de Samsung van filtrar accidentalment secrets comercials mitjançant ChatGPT




No oblideu mai que tot el que compartiu amb ChatGPT es conserva i s'utilitza per entrenar encara més el model. Els empleats de Samsung ho han après de la manera més difícil després de filtrar accidentalment dades secretes de Samsung.

Els empleats de Samsung van compartir accidentalment informació confidencial mentre feien servir ChatGPT per ajudar a la feina. La divisió de semiconductors de Samsung ha permès als enginyers utilitzar ChatGPT per comprovar el codi font.

Però The Economist Korea va informar tres casos separats d'empleats de Samsung filtrant sense voler informació sensible a ChatGPT. En un cas, un empleat va enganxar un codi font confidencial al xat per comprovar si hi havia errors. Un altre empleat va compartir codi amb ChatGPT i va "sol·licitar l'optimització del codi". Un tercer, va compartir una gravació d'una reunió per convertir-la en notes per a una presentació. Aquesta informació està ara en llibertat perquè ChatGPT s'alimenti.

La filtració és un exemple real d'escenaris hipotètics pels quals els experts en privadesa han estat preocupats. Altres escenaris inclouen compartir documents legals confidencials o informació mèdica amb la finalitat de resumir o analitzar textos extensos, que després es podrien utilitzar per millorar el model. Els experts adverteixen que pot infringir el compliment del GDPR, per això Itàlia va prohibir recentment ChatGPT.

Samsung ha pres mesures immediates limitant la capacitat de càrrega de ChatGPT a 1024 bytes per persona i està investigant les persones implicades en la filtració. També està considerant construir el seu propi chatbot intern d'IA per evitar futurs contratemps vergonyosos. Però és poc probable que Samsung recordi cap de les seves dades filtrades. La política de dades de ChatGPT (s'obre en una pestanya nova) diu que utilitza dades per entrenar els seus models tret que sol·liciteu la desactivació. A la guia d'ús de ChatGPT, adverteix explícitament als usuaris (s'obre en una pestanya nova) que no comparteixin informació sensible a les converses.

Considereu-ho com una història d'advertència que cal recordar la propera vegada que us ajudeu a ChatGPT. Samsung sens dubte ho farà.

Cap comentari:

Amb la tecnologia de Blogger.