Preprečite vnašanje občutljivih podatkov vaših zaposlenih v ChatGPT

Preprečite vnašanje občutljivih podatkov vaših zaposlenih v ChatGPT

12. 04. 2023 E-izobraževanje, B2

Ali vaši zaposleni vedo za tveganja povezana z uhajanjem zaupnih informacij v novih generativnih orodjih umetne inteligence, ki so povzročila pravo norijo v tehnološki industriji?

Kot je razvidno iz spodnje grafike, uporaba ChatGPT na delovnem mestu iz dneva v dan narašča.

 


Po podatkih Cyberhaven Labs je 8,2 % zaposlenih že uporabljalo ChatGPT pri svojem delu, 6,5 % pa jih je s platformo delilo tudi podatke podjetja. Zaposleni kopirajo in lepijo različne vrste zaupnih podatkov v ChatGPT, da jih orodje prepiše. Vse od izvornih kod do zdravstvenih kartotek bolnikov.

 


Nedavno je OpenAI zaprl ChatGPT zaradi hrošča, ki je napačno označeval klepete v zgodovini uporabnikov z naslovi klepetov drugih uporabnikov. Ti naslovi so lahko vsebovali tudi nekatere občutljive ali zaupne informacije, ki so tako bile potencialno izpostavljene drugim uporabnikom ChatGPT.

Vključevanje tovrstnih orodij v reševanje različnih delovnih izzivov lahko prinese zanimive rezultate, ki jih morda ne bi mogli doseči sami. Toda obstaja nevarnost, da zaposleni med »pogovorom« z AI klepetalnikom delijo tudi zaupne poslovne skrivnosti.

 

Kako zaupna je komunikacija, smo povprašali tudi ChatGPT

Na vprašanje, ali zna obdržati skrivnost in kako zaupen je najin pogovor je odgovoril tako:

Kljub trditvam ChatGPT-ja, da ne shranjuje informacij izmenjanih v pogovorih, previdnost ni nikoli odveč. Tudi sam klepetalnik uporabnika opozarja, da lahko informacije »uidejo v napačne roke« in zato odsvetuje deljenje občutljivih informacij.

Za ozaveščanje zaposlenih o tveganjih za zasebnosti in zaupnost podatkov, ki jih lahko zaposleni nevede razkrivajo, so številne družbe zato že sprejele različne ukrepe. Mnoge so omejile uporabo, nekateri drugi pa so izdali posebna opozorila svojim zaposlenim, naj pazijo pri uporabi teh orodij.

Pomembno je torej zaposlene osvestiti, da se podatki, vneseni v ChatGPT, prenašajo in shranjujejo na zunanjih strežnikih, zaradi česar jih podjetje ne more pridobiti in zaradi česar se pojavlja tveganje uhajanja zaupnih informacij.

 

Koristni nasveti

Da bi zagotovili, da se občutljivi podatki vašega podjetja ne bodo znašli kje drugje, ponujamo še nekaj koristnih nasvetov:

  • Omejite dostop do ChatGPT: Zagotovite, da imajo dostop do ChatGPT le zaposleni, ki ga potrebujejo za opravljanje svojih nalog.
  • Izogibajte se deljenju občutljivih informacij: Predpostavljajte, da je lahko vse, kar vnesete, pozneje dostopno javnosti. Prepričajte se, da ne delite nobenih občutljivih informacij o strankah ali zaposlenih.
  • Izogibajte se uporabi imen ali drugih osebnih podatkov: Ne uporabljajte imen ali drugih osebnih podatkov v vaših pogovorih z ChatGPT. Namesto tega uporabite generične izraze, da se izognete zbiranju osebnih podatkov.
  • Preverite podatke, preden jih posredujete naprej: Preden posredujete informacije, ki ste jih prejeli med vašim pogovorom z ChatGPT, preverite, ali so resnične, pravilne in relevantne in ali jih je mogoče deliti.
  • Izbrišite podatke: Če ste prejeli kakršne koli zaupne ali občutljive podatke v vašem pogovoru z ChatGPT, jih takoj izbrišite.
  • Preglejte varnostne politike: Smiselno dodajte posebno klavzulo v zvezi z izmenjavo občutljivih podatkov in zaščito pravic intelektualne lastnine podjetja pri uporabi umetne inteligence.
  • Ustvarite uporabniški priročnik za zaposlene: Priročnik naj bo posvečen varni uporabi umetne inteligence, s katero se bodo zaposleni počutili bolj samozavestni glede pravilne in nepravilne uporabe tovrstnih orodij.

In nenazadnje, poskrbite za redno usposabljanje zaposlenih. Ti se morajo zavedati, kaj so to zasebni in zaupni podatki, in kako z njimi pravilno ravnati. Razumeti morajo tudi posledice deljenja občutljivih podatkov in z njimi povezane kršitve.

V ta namen smo pri B2 IT razvili e-usposabljanje Informacijska varnost na delovnem mestu.

Zahtevajte BREZPLAČEN demo dostop zdaj!

DEMO DOSTOP

 

Nazaj