Sergey Brin ndez debatin: “Modelet e AI përgjigjen më mirë kur i kërcënon”

Bashkëthemeluesi i Google, Sergey Brin, ka shkaktuar polemika me një deklaratë të pazakontë gjatë një eventi të fundit në Majami. Ai u shpreh se modelet e inteligjencës artificiale japin përgjigje më të mira kur përdoruesit i “kërcënojnë”, sesa kur u drejtohen me gjuhë të sjellshme.
Sipas Brin, si modelet e Google, ashtu edhe ato të kompanive të tjera, duket se reagojnë me më shumë “efikasitet” ndaj frazave që nënkuptojnë dhunë fizike. Megjithatë, ai pranoi se kjo qasje është e pakëndshme dhe se nuk diskutohet gjerësisht.
Reagime të forta nga ekspertët
Deklarata e Brin ka ngritur shqetësime të menjëhershme në komunitetin akademik dhe në mesin e etikistëve të AI-së. Studiues të fushës paralajmërojnë se normalizimi i gjuhës kërcënuese – qoftë edhe ndaj makinave – mund të ketë pasoja të dëmshme në sjelljen shoqërore.
Sipas tyre, përdorimi i kërcënimeve si strategji komunikimi me teknologjinë bie ndesh me përpjekjet për të promovuar ndërveprime të shëndetshme dhe të respektueshme, si edhe ngre pikëpyetje mbi mënyrën se si modelet e AI trajnohen dhe reagojnë ndaj inputeve të ndryshme.
Një debat i ri mbi raportin njeri–AI
Deklarata e Brin shton edhe një kapitull të ri në diskutimin global mbi marrëdhënien mes njerëzve dhe inteligjencës artificiale. A është normale që modelet të japin rezultate më të mira kur i trajton keq? Dhe çfarë pasojash mund të ketë kjo për përdoruesit dhe shoqërinë?
Për momentin, mbetet e paqartë nëse kjo sjellje është thjesht një anomali teknike, apo tregon një problem më të thellë në mënyrën si ndërtohen dhe testohen sistemet e AI.




0 Comments