Sam Altman paralajmëron: Ruani privatësinë te ChatGPT, çdo gjë mund të përdoret kundër jush në gjykatë!

Në një intervistë të fundit, Sam Altman ngriti një pikë që shumica nuk e mendojnë fare: bisedat me chatbotë nuk mbulohen nga asnjë privilegj ligjor si ai mjek-pacient apo avokat-klient. Kjo do të thotë se, në rrethana të caktuara, ato mund të kërkohen me urdhër gjykate dhe të përdoren si provë.
Pyetje: A ekziston ndonjë lloj “sekreti profesional” për bisedat me ChatGPT, si tek mjeku apo avokati?
Altman: Jo. Nuk ka privilegj ligjor për bisedat me një shërbim IA. Politikat e privatësisë dhe masat teknike janë një gjë; privilegji ligjor është tjetër gjë dhe sot nuk ekziston për chatbotët.
Pyetje: Do të thotë kjo që bisedat mund të përdoren kundër meje nëse përfshihem në një çështje gjyqësore?
Altman: Po, potencialisht. Si çdo shërbim online, ne i përgjigjemi urdhrave të vlefshëm ligjorë. Nëse gjykata kërkon të dhëna brenda kornizës ligjore, kompani si e jona duhet t’i zbatojnë. Kjo është arsyeja pse unë mendoj se duhen rregulla të reja për mbrojtjen e këtyre bisedave.
Pyetje: Çfarë u këshilloni përdoruesve ndërkohë?
Altman: Mos ndani gjëra që s’do t’i dërgonit me email publik. Anonimizoni skenarët, shmangni emra të plotë, numra dokumentesh dhe të dhëna shëndetësore. Për çështje ligjore apo mjekësore, flisni me profesionistë me licencë. Nëse punoni për një organizatë, përdorni ofertat enterprise me kontrolle dhe ruajtje minimale sipas politikave të punëdhënësit.
Pyetje: Po fshirja e bisedave dhe ruajtja minimale e të dhënave?
Altman: Duhet të ekzistojnë opsione të qarta për fshirje dhe ruajtje sa më të kufizuar. Edhe kështu, nëse diçka ruhet diku, teorikisht mund të kërkohet ligjërisht. Prandaj transparenca dhe zgjedhjet e përdoruesit janë thelbësore.
Pyetje: A mendoni se bota do të njohë një formë “privilegji” edhe për bisedat me IA?
Altman: Personalisht po. Mendoj se është e gabuar që njerëzit të penalizohen pse kërkojnë këshilla apo ndihmë në një mjet digjital. Na duhen ligje që të mbrojnë një pjesë të këtyre bisedave—sidomos kur prekin shëndetin mendor, çështjet ligjore ose rrethana shumë personale.
Pyetje: Çfarë përgjegjësish kanë vetë kompanitë e IA?
Altman: Të jenë të drejtpërdrejta me përdoruesit, të ofrojnë cilësime të qarta privatësie, ruajtje minimale, enkriptim dhe dokumentim të saktë se çfarë mblidhet e për sa kohë. Dhe, mbi të gjitha, të mos krijojnë iluzion se ekziston një mbrojtje ligjore që realisht nuk ka.
Interpretimi ynë: çfarë do të thotë kjo për ju
1) Kuptoni dallimin “privatësi” vs. “privilegj”.
Politika e privatësisë dhe enkriptimi mbrojnë si ruhen të dhënat; privilegji ligjor vendos nëse mund të kërkohen. Sot, bisedat me chatbotë nuk gëzojnë privilegj.
2) Silluni si me një email që mund të lexohet nga një palë e tretë.
Nëse nuk do ta shkruanit në një email që mund të qarkullojë nëpër web, mos e shkruani as në IA. Për skenarë të ndjeshëm, përdorni shembuj të anonimizuar.
3) Për punë – jo vetëm “rregulla shtëpie”.
Respektoni politikat e sigurisë së punëdhënësit. Zgjidhni versione enterprise me ruajtje të kufizuar dhe kontrolle auditimi. Mos ngarkoni dokumente konfidenciale pa autorizim të qartë.
4) Për çështje ligjore/mjekësore – shkoni te profesionisti.
IA është e shkëlqyer për orientim të përgjithshëm; nuk zëvendëson avokatin, mjekun apo terapistin. Këta kanë edhe privilegje ligjore që chatboti nuk i ka.
5) Çfarë pritet më tej?
Ka gjasa të shohim rregullore të reja që njohin një formë mbrojtjeje për bisedat digjitale – të paktën në rrethana të caktuara (shëndet mendor, këshillim ligjor bazik, shërbime publike). Deri atëherë, kujdesi personal është mbrojtja juaj më e mirë.
Thelbi: Chatbotët janë të dobishëm, por nuk janë “dhoma sekrete rrëfimi”. Derisa ligji të vendosë mburoja të reja, shkruani me mendimin se çdo fjali mund të lexohet jashtë dritares së bisedës.







0 Comments