Lajme

Sa e rrezikshme po bëhet inteligjenca artificiale?

Shumë nga krijuesit e saj paralajmërojnë për rreziqe në rritje, ndërsa përdorimi i AI në luftë, sulme kibernetike dhe operacione sigurie po bëhet gjithnjë më i zakonshëm…

Nëse Dario Amodei do të dalë fitues apo humbës nga zhvillimet e javës së kaluar, kjo mbetet ende e paqartë. Nga njëra anë, drejtori ekzekutiv i kompanisë Anthropic arriti një sukses të rëndësishëm në aspektin e imazhit publik me qëndrimin e tij parimor kundër Departamentit të Mbrojtjes së SHBA-së.

Anthropic, kompania pas modelit të inteligjencës artificiale Claude dhe që nga shumë ekspertë konsiderohet si një nga forcat kryesore në garën për zhvillimin e inteligjencës artificiale më të avancuar, i ndaloi Pentagonit përdorimin e Claude për mbikëqyrje masive të qytetarëve amerikanë dhe për sisteme armësh autonome.

Amodei deklaroi se beson se “në një gamë të kufizuar përdorimesh, inteligjenca artificiale mund të minojë vlerat demokratike”.

Ky qëndrim u prit pozitivisht nga shumë njerëz. Zhvilluesit e Anthropicit arritën edhe një herë të paraqiten si aktorë të përgjegjshëm në garën globale për inteligjencën artificiale. Edhe këngëtarja Katy Perry publikoi në rrjetet sociale një pamje nga ekrani që tregonte se kishte blerë një abonim vjetor për Claude.

Nga ana tjetër, e ardhmja e gjithë kompanisë mund të vihet në pikëpyetje. Sekretari amerikan i Mbrojtjes, Pete Hegseth, e klasifikoi menjëherë Anthropicin si një rrezik për zinxhirin e furnizimit, në të njëjtën kategori me kompaninë kineze të telekomunikacionit Huawei. Furnizues të ushtrisë kanë filluar tashmë të anulojnë kontratat me Anthropicin.

Megjithatë, Dario Amodei nuk është i vetmi që paralajmëron për rreziqet e inteligjencës artificiale. Pikërisht shumë nga mendjet më të ndritura në zhvillimin e AI janë ndër ata që paralajmërojnë më fort për rreziqet e saj. Kjo bën që një person i zakonshëm të pyesë: nëse vetë krijuesit e thonë këtë, a duhet marrë seriozisht?

Dyshime mbi besueshmërinë

Për një kohë të gjatë, debati mbi rreziqet e AI vuajti nga një problem besueshmërie, sepse paralajmërimet më të forta ishin edhe më abstraktet. Kjo situatë ka ndryshuar. Sot kërcënimet janë bërë më konkrete. Disa prej tyre nuk i përkasin më të ardhmes, por janë tashmë pjesë e realitetit.

Para se modelet e mëdha gjuhësore të përhapeshin në pothuajse çdo aplikacion, paralajmërimet kryesore lidhesin me idenë e një forme inteligjence superiore që një ditë mund të kthehej kundër njerëzimit. Një shembull i njohur është eksperimenti mendimor i ashtuquajtur “fabrika e kapëseve të letrës”, ku një AI e programuar për të prodhuar kapëse do të shfrytëzonte të gjitha burimet e Tokës për këtë qëllim, pa marrë parasysh jetën njerëzore.

Besueshmëria e skenarëve të tillë është vënë shpesh në dyshim. Kur edhe Elon Musk iu bashkua në vitin 2023 thirrjes për një moratorium mbi zhvillimin e AI, disa e interpretuan këtë si një strategji marketingu: nëse rreziqet janë kaq të mëdha, atëherë teknologjia duhet të jetë revolucionare dhe shumë e vlefshme.

Megjithatë, në qarqet më radikale të kritikëve të AI këto ide vazhdojnë të ekzistojnë. Një bestseller i vitit të kaluar nga dy studiues të inteligjencës artificiale paralajmëronte: “Nëse dikush e ndërton, të gjithë do të vdesin”. Autorët bazohen në supozimin se për shkak të rritjes eksponenciale të aftësive, herët a vonë do të arrihet AGI, inteligjenca e përgjithshme artificiale, një sistem që mund të bëjë po aq ose më shumë se një njeri.

“Oppenheimeri” i botës së AI

Disa ekspertë argumentojnë se skenarët katastrofikë mund të largojnë vëmendjen nga rreziqet reale të së tashmes. Deepfake pornografike, fushata dezinformimi dhe sulme kibernetike janë vetëm disa nga problemet që tashmë kanë lindur, shumë përpara se AI të arrijë inteligjencën njerëzore.

Disa ekspertë, si ish-studiuesi i Meta-s Yann LeCun, madje dyshojnë se lloji i inteligjencës artificiale që qëndron pas Claude dhe ChatGPT mund të arrijë ndonjëherë nivelin e superinteligjencës. Sipas tyre, përparimet e mëdha të viteve të fundit mund të ngadalësohen në të ardhmen.

Kompania e Amodeit u krijua pikërisht si një alternativë e përqendruar te siguria ndaj zhvilluesit të ChatGPT, OpenAI. Sipas raportimeve, Amodei u jep të gjithë punonjësve të rinj një libër të detyrueshëm për lexim: “The Making of the Atomic Bomb”. Libri përshkruan se si zbulimet në fizikën themelore në fillim të shekullit XX çuan në ndërtimin e bombave atomike që u përdorën në Hiroshima dhe Nagasaki.

Krahasimi është i zymtë. Në ese të gjata, Amodei reflekton shpesh mbi zhvillimet e fundit të teknologjisë së tij dhe mbi pasojat e mundshme nëse të gjithë do të kishin qasje në një superinteligjencë. Në janar ai shkroi se një person i vetmuar dhe i paqëndrueshëm, që dëshiron të vrasë njerëz por nuk ka aftësitë e nevojshme, mund të arrijë papritur nivelin e një virologu me doktoraturë.

Kjo përfaqëson një ndryshim thelbësor nga skenarët e superinteligjencës: rreziqet nuk vijnë më nga makinat që rebelohen, por nga njerëzit që përdorin AI me qëllime të këqija ose të pakujdesshme.

Nëse inteligjenca artificiale është “bomba atomike e shekullit XXI”, atëherë Yoshua Bengio mund të konsiderohet si një lloj Robert Oppenheimeri i kësaj historie. Bengio është një nga studiuesit më të cituar në botë dhe një nga pionierët e inteligjencës artificiale. Në vitin 2018 ai fitoi çmimin Turing për punën e tij mbi rrjetet nervore.

Ashtu si Oppenheimeri që më vonë u përball me pasojat e krijimit të bombës atomike, edhe Bengio shpreh shqetësim për mënyrën se si po përdoret sot inteligjenca artificiale dhe për atë që mund të ndodhë në të ardhmen.

AI ende planifikon si një fëmijë gjashtëvjeçar

Sot Bengio kërkon të ndikojë në politikanë dhe struktura ushtarake duke paralajmëruar për rreziqet. Ai përmend eksperimente ku modele të inteligjencës artificiale kanë tentuar të shmangin çaktivizimin e tyre. Në një rast, modeli kishte akses në email-et e një inxhinieri ku përmendej një lidhje jashtëmartesore dhe kërcënoi se do t’i publikonte ato nëse çaktivizohej.

Në një skenar tjetër të simuluar, modelet e AI duhej të vendosnin nëse do të ftohnin një dhomë serverësh që po mbinxehej për të shpëtuar një inxhinier. Modelet zgjodhën të linin njeriun të vdiste.

Megjithatë, këto janë vetëm simulime. Në praktikë, raste të tilla nuk janë vërejtur ende.

Rreziqet më konkrete lidhen me përdorimin e AI nga njerëz me qëllime të dëmshme. Bengio paralajmëron se tashmë është arritur një prag ku modelet më të fuqishme mund të ndihmojnë edhe persona pa përvojë të zhvillojnë armë biologjike. Sipas tij, kjo pikë është arritur nga modelet më të avancuara amerikane dhe modelet kineze mund ta arrijnë shumë shpejt.

Modelet e kompanive kineze shpesh mund të instalohen dhe modifikohen lokalisht në kompjuter, gjë që e bën më të vështirë kontrollin e abuzimit nga ana e kompanive zhvilluese.

Kompanitë si OpenAI dhe Anthropic përpiqen të kufizojnë përdorimin e rrezikshëm duke vendosur barriera sigurie në modelet e tyre. Por Bengio mbetet skeptik: askush ende nuk e di saktësisht si të zgjidhet ky problem.

AI tashmë përdoret në luftë

Në kohë lufte, inteligjenca artificiale është tashmë pjesë e operacioneve ushtarake. Përveç Ukrainës, ku përdoret për drejtimin autonom të dronëve dhe analizën e materialeve video, AI është bërë thelbësore edhe për ushtrinë amerikane.

Sipas raportimit të Washington Post, Pentagoni përdor një kombinim të softuerit të mbikëqyrjes së kompanisë Palantir dhe modelit Claude të Anthropicit për të analizuar sasi të mëdha informacioni dhe për të identifikuar objektiva në Iran.

Edhe skenarë të tjerë kërcënues janë bërë tashmë realitet. Në vjeshtën e kaluar, hakerë kinezë përdorën Claude për një sulm kibernetik ndaj 30 organizatave. Sipas Anthropicit, 80 deri në 90 për qind e operacionit u krye nga AI, ndërsa ndërhyrja njerëzore ishte vetëm sporadike.

Në shkurt u bë e ditur gjithashtu se hakerë depërtuan në databazat e institucioneve qeveritare në Meksikë, përfshirë administratën tatimore, dhe vodhën të dhënat e miliona tatimpaguesve – gjithashtu me ndihmën e Claude.

Shumë nga këto probleme, sipas studiuesve, mund të lidhen me mënyrën se si inteligjenca artificiale përshtatet me vlerat dhe nevojat njerëzore. Bengio ka krijuar organizatën jofitimprurëse Law Zero, e cila synon të zhvillojë baza më të sigurta për sistemet e ardhshme të AI.

Edhe Anthropic ka premtuar më herët një qasje të ngjashme me konceptin e “constitutional AI”, ku gjatë trajnimit modelit i jepet një kornizë vlerash që duhet të ndjekë. Megjithatë, Bengio argumenton se kjo nuk mjafton. Sipas tij, nuk mjafton t’i thuash AI-së vetëm se çfarë nuk duhet të bëjë; siguria duhet të ndërtohet që në fazat më të hershme të zhvillimit.

Ai shton se kompanitë komerciale të inteligjencës artificiale kanë shpesh një nxitje ekonomike për të ecur përpara pavarësisht rreziqeve.

Sipas Financial Times, Dario Amodei ishte sërish në bisedime me Departamentin amerikan të Mbrojtjes ditët e fundit, në kërkim të një kompromisi. /Përshtati Pamfleti nga FAZ/

3sgIgLJ.png