Masakra në Gaza/ Si i vret palestinezët Inteligjenca Artificiale

Muajt e fundit gazetarët izraelitë kanë zbuluar se pjesa më e madhe e shkatërrimit në Gaza që nga sulmet e 7 tetorit është mundësuar dhe shpesh drejtuar nga një sistem inteligjence artificiale. “Premtimi i Inteligjencës Artificiale (AI) në përgjithësi është një premtim në dy aspekte. Njëri është shpejtësia dhe e dyta është saktësia” – tha Tal Mimran, pedagog i universitetit hebraik në Jeruzalem.

“E gjithë ëndrra e AI është që ajo të ofrojë goditje precize” – tha Joseph Gedeon, reporter i Policito-s.

Por pas 34,000 palestinezëve të vrarë, krahasuar me pak më shumë se 1,400 në luftën e Izraelit në Gaza të vitit 2014, është e qartë se diçka ndryshe po ndodh.

Pra, çfarë lidhje Inteligjenca Artificiale?

Përdorimi i AI nga forcat e mbrojtjes izraelite nuk është gjë e re.

“Unë mendoj se përdorimi më i famshëm i AI nga Ushtria Izraelite (IDF) është sigurisht Iron Dome (kupola e hekurt), i cili është një sistem mbrojtës që synon të ndalojë sulmet me raketa” tha Tal Mimran, pedagog i universitetit hebraik në Jeruzalem.

(Sistemi anti-raketor Iron Dome)

Ky sistem është pjesërisht ai që mbrojti Izraelin kundër sulmeve me dronë dhe raketa të Iranit në prill 2024.

“Tjetra është një tjetër armë e prodhimit vendas që ata e kanë quajtur “Smash”, e cila është një dylbi me preçizion me AI që ju e shtoni në armët e dorës, dhe çfarë bën është se përdor algoritme të avancuara të përpunimit të imazhit për të përmirësuar shënjestrën. Është si të thuash, matje automatike si në lojrat në PlayStation” – tha Joseph Gedeon, reporter i Policito-s.

(Dylbiu Smash, që përcakton vetë objektivat për tu qëlluar)

Një mënyrë tjetër se si Izraeli përdor AI është përmes survejimit të palestinezëve në territoret e pushtuara.

“Sa herë që kalojnë nëpër një nga qindra pikat e kontrollit, lëvizjet e tyre regjistrohen. Imazhet e tyre të fytyrës dhe biometrike të tjera kërkohen me një bazë të dhënash” – tha Lucy Suchman, pedagoge e antropoligjisë dhe teknologjikë në Universitetin Lancaster.

(Survejimi me Inteligjencë Artificiale)

Por ne tani po mësojmë më shumë rreth sistemeve të AI që zgjedhin bombardimin e objektivave në Gaza nga dy raportime në Izrael nga gazetat “972” dhe “Local Call”.

Gospel është një sistem që prodhon objektiva bombardimi për ndërtesa dhe struktura specifike në Gaza. Ai e bën këtë duke punuar në lidhje me mjete të tjera të AI dhe si çdo sistem i AI, hapi i parë është mbledhja në shkallë të gjerë të të dhënave. Në këtë rast survejimi dhe të dhënat historike mbi palestinezët dhe vendndodhjet e militantëve në Gaza.

(Sistemi Gospel, platforma që analizon dhe përcakton objektivat shumë më shpejt se njerëzit)

“Aplikacioni më i famshëm do të jetë The Alchemis, i cili është një platformë që mbledh të dhëna dhe lejon transferimin e të dhënave ndërmjet departamenteve të ndryshme, duke u transferuar më vonë në një platformë tjetër që quhet Fabrika e Zjarrit. Fabrika e zjarrit vëzhgon të dhënat dhe i kategorizon ato” – tha Tal Mimran, pedagog i universitetit hebraik në Jeruzalem.

Objektivat e krijuara përgjithësisht vendosen në një nga katër kategoritë.

Objektivat e para taktike, të cilat zakonisht përfshijnë celulat e armatosura të militantëve, depot e armëve lëshuese dhe shtabet e militantëve.

Pastaj ka objektiva nëntokësore, kryesisht tunele nën shtëpitë e civilëve.

Kategoria e tretë përfshin shtëpitë familjare të operativëve të Hamasit ose Xhihadit Islamik.

Dhe kategoria e fundit përfshin objektiva që nuk janë dukshëm të natyrës ushtarake, veçanërisht ndërtesat e banimit dhe ato të larta me dhjetëra civilë. IDF i quan këto ‘objektiva fuqie’.

Pasi të dhënat organizohen, ato kalojnë nëpër një shtresë të tretë, të quajtur Gospel.

“Gospel krijon një rezultat që sugjeron objektiva specifike të mundshme, municione të mundshme, paralajmërime për dëme të mundshme kolaterale etj.” tha Tal Mimran, pedagog i universitetit hebraik në Jeruzalem.

Ky sistem prodhon objektiva në Gaza më shpejt se sa një njeri. Brenda 5 ditëve të para të luftës gjysma e të gjithë objektivave të identifikuar ishin nga kategoria e ‘objektivave të fuqisë’.

(Pamje nga objektivat që Izraelitët bombarduan pas sinjalizimeve nga sistemi Gospel)

Burime të shumta që folën raportuan se ideja prapa ‘objektivave të fuqisë’ është të ushtrohet presion civil mbi Hamasin.

Muaj pas hetimit të Gospel-it, gazeta “972” shfaqi gjithashtu një sistem më të errët dhe më të fshehtë të Inteligjencës Artificiale (AI), i ndërtuar për të synuar njerëz të veçantë të njohur si Lavender.

Me fillimin e Luftës së Hamasit në Izrael, Lavender përdori të dhëna historike dhe mbikëqyrje për të gjeneruar deri në 37,000 objektiva të Hamasit dhe Xhihadit Islamik.

Burimet i thanë “972” se rreth 10% e atyre objektivave shpesh janë të gabuara. Por edhe kur përcaktoi 90% të objektivave të supozuara të sakta, Izraeli gjithashtu zgjeroi për herë të parë përkufizimin e një operativi të Hamasit.

“Çështja është se Hamasi drejton Rripin e Gazës, kështu që ju keni shumë shoqëri civile që ndërvepron me Hamasin. Policët, doktorët, civilët në përgjithësi. Dhe kështu këto janë objektivat që ne e dimë se ata po i vëzhgojnë” – tha Heidy Khlaaf, eksperte e sigurisë për Inteligjencën Artificiale.

Lexo më tej: Prezantohet Chat GPT-4o: Ç’mund të bëjë modeli i ri i inteligjencës artificiale 

Pasi Lavender përdori të dhënat e tij për të gjeneruar këto objektiva, AI më pas do ta lidhte objektivin me një shtëpi specifike familjare dhe më pas do të rekomandonte një armë për IDF-në që ta përdorte në atë objektiv, kryesisht në varësi të rëndësisë së operativit të Hamasit.

“Ajo që na u tha është se për militantët e rangut të ulët ushtria preferoi të përdorte “bomba budallaqe”, që do të thotë bomba që nuk udhëzohen, sepse janë më të lira. Pra, në një mënyrë të çuditshme, sa më pak të jetë rreziku që ju paraqisni, atëherë ata përdorin bomba më pak të sofistikuara dhe për këtë arsye mund të krijojnë më shumë dëme kolaterale” – tha Meron Rapoport, redaktor i gazetës “Local Call”, që mori pjesë në investigim.

Burimet u thanë gazetarëve se për çdo operativ të vogël të Hamasit që shënonte Lavender, lejohej të vriteshin deri në 15 ose 20 civilë. Por gjithashtu se për disa objektiva numri i viktimave të lejuara civile ishte deri në 300.

(Sistemi AI Lavender, që pasi përcakton objektivat, zgjedh edhe armën me të cilën do goditen. Ky sistem ka shkaktuar viktima kolaterale të shumta)

“Sistemet e AI nuk prodhojnë fakte. Ato prodhojnë vetëm parashikime ashtu si parashikimi i motit ose tregu i aksioneve” – tha Heidy Khlaaf, eksperte e sigurisë për Inteligjencën Artificiale. 

“Inteligjenca që është atje varet plotësisht nga cilësia, vlefshmëria dhe kuptimi i njerëzve që krijuan sistemin” – tha Lucy Suchman, pedagoge e antropoligjisë dhe teknologjikë në Universitetin Lancaster. 

Në një deklaratë për The Guardian, IDF hodhi poshtë plotësisht se ata kishin ndonjë politikë për të vrarë dhjetëra mijëra njerëz në shtëpitë e tyre dhe theksuan se analistët njerëzorë duhet të kryejnë ekzaminime të pavarura përpara se të zgjidhet një objektiv. Kjo na sjell në hapin e fundit të të dyjave këtyre proceseve, miratimin njerëzor.

Burimet i thanë “972” se i vetmi protokoll i mbikëqyrjes njerëzore që ekzistonte përpara se të bombardoheshin shtëpitë e militantëve të vegjël të dyshuar të shënuar nga Lavender ishte kryerja e një kontrolli të vetëm: Të sigurohet që objektivi i përzgjedhur nga AI është mashkull dhe jo femër. 

(I vetmi protokoll i mbikëqyrjes njerëzore në sistemin Lavender: Të sigurohet që objektivi i përzgjedhur nga AI është mashkull dhe jo femër)

“Ekspertët na kanë thënë se në thelb ajo që po ndodh në Gaza është një vend testimi i pavullnetshëm për teknologjitë e ardhshme të AI” – tha Joseph Gedeon, reporter i Policito-s.

Në nëntor 2023, SHBA lëshoi një kornizë ndërkombëtare për përdorimin e përgjegjshëm të AI në luftë. 

“Më shumë se 50 nënshkrime nga 50 vende të ndryshme. Izraeli nuk e ka nënshkruar këtë traktat” – tha Joseph Gedeon, reporter i Policito-s.

(Korniza ndërkombëtare nga SHBA për përdorimin e përgjegjshëm të AI në luftë. Edhe Shqipëria e ka miratuar. Izraeli jo)

“Pra, ne jemi në një lloj hapësire ku na mungon mbikëqyrja dhe përgjegjësia e mjaftueshme për luftën me drone, e lëre më të futen sisteme të reja si Gospel dhe Lavender. Dhe ne po shikojmë një të ardhme ku në të vërtetë do të ketë automatizim më të pasaktë dhe të njëanshëm të objektivave që i bëjnë këto viktima civile shumë më keq” – tha Heidy Khlaaf, eksperte e sigurisë për Inteligjencën Artificiale. 

“Gabimi se, premisa se luftimet më të shpejta do të çojnë në njëfarë mënyre në sigurinë dhe paqen global. Kjo nuk është rruga që do të na çojë atje. Dhe përkundrazi, mendoj se shumë nga ky vrull i këtyre iniciativave teknologjike duhet të ndërpritet në çfarëdo mënyre që mundemi” – tha Lucy Suchman, pedagoge e antropoligjisë dhe teknologjikë në Universitetin Lancaster. 

Vox, përshtati në shqip Lapsi

NDANI KËTË POSTIM

Mund tju interesojne