Вялікабрытанія “паддоследная свінка” для бяспекі выбараў перад знакавым галасаваннем


За ўсеагульнымі выбарамі ў Вялікабрытаніі ўважліва сочаць пасля рэзкіх папярэджанняў аб тым, што імклівы прагрэс у галіне кібертэхналогій, асабліва штучнага інтэлекту, і рост супярэчнасцей паміж буйнымі краінамі пагражаюць сумленнасці знакавых галасаванняў 2024 года.

«Гэтыя жулікі і нерэгулюемыя тэхналагічныя дасягненні ўяўляюць велізарную пагрозу для ўсіх нас. Іх можна выкарыстоўваць для дыскрымінацыі, дэзінфармацыі і расколу», — заявіла ў красавіку кіраўнік Amnesty International Агнес Каламар.

Выбары ў Вялікабрытаніі 4 ліпеня – за чатыры месяцы да выбараў у Злучаных Штатах – будуць разглядацца як “паддоследная свінка” для бяспекі выбараў, сказаў Брус Снел, стратэг па кібербяспецы амерыканскай фірмы Qwiet AI, якая выкарыстоўвае штучны інтэлект для прадухілення кібер- напады.

У той час як штучны інтэлект захапіў большасць загалоўкаў, больш традыцыйныя кібератакі застаюцца сур'ёзнай пагрозай.

«Гэта дэзінфармацыя, гэта зрыў бакоў, гэта ўцечка даных і напад на пэўных асобаў», — сказаў Рам Эльбойм, кіраўнік фірмы па кібербяспецы Sygnia і былы старэйшы аператыўнік ізраільскага падраздзялення 8200 па кібер-разведцы.

Чакаецца, што галоўнай пагрозай стануць дзяржаўныя суб'екты, і Вялікабрытанія ўжо выказвае папярэджанні адносна Кітая і Расіі.

“Галоўнае, магчыма, – гэта прасоўванне канкрэтных кандыдатаў або праграм”, – сказаў Элбайм.

«Другі — гэта стварэнне нейкай унутранай нестабільнасці або хаосу, чагосьці, што паўплывае на пачуццё грамадства».

Вялікабрытанія мае перавагу перад Злучанымі Штатамі з-за кароткага перыяду часу паміж аб'явай і правядзеннем выбараў, што дае зламыснікам мала часу для распрацоўкі і выканання планаў, сказаў Элбайм.

Ён таксама менш уразлівы да нападаў на выбарчую інфраструктуру, паколькі галасаванне не аўтаматызавана, дадаў ён.

Але ўзлом устаноў застаецца пагрозай, і Вялікабрытанія ўжо абвінаваціла Кітай у тым, што ён стаіць за нападам на выбарчую камісію.

«Вам не трэба парушаць асноўную сістэму галасавання», — растлумачыў Эльбойм. «Напрыклад, калі вы парушаеце партыю, яе кампутары або трэцюю асобу, якая ўплывае на гэтую групу, гэта можа паўплываць».

Асобы найбольш схільныя рызыцы стаць мішэнню, дадаў ён. Любая няёмкая інфармацыя можа быць выкарыстана для шантажу кандыдатаў.

Але больш верагодна, што зламыснік проста выдасць інфармацыю для фарміравання грамадскай думкі або выкарыстае ўзламаны ўліковы запіс, каб выдаць сябе за ахвяру і распаўсюдзіць дэзінфармацыю.

Былы лідар Кансерватыўнай партыі Іэн Дункан Сміт, люты крытык Пекіна, ужо заявіў, што кітайскія дзяржаўныя дзеячы выдавалі сябе за яго ў Інтэрнэце, рассылаючы фальшывыя электронныя лісты палітыкам па ўсім свеце.

Тым не менш, павялічаныя магчымасці для выкарыстання штучнага інтэлекту для стварэння і распаўсюджвання дэзінфармацыі з'яўляюцца самай невядомай велічынёй на сёлетніх выбарах, сказаў Снел.

Распаўсюджванне «глыбокіх фэйкаў» — фальшывых відэа, малюнкаў або аўдыя — выклікае асноўную заклапочанасць.

«Узровень патэнцыялу для фальшыўкі проста велізарны. Гэта тое, чаго ў нас дакладна не было на апошніх выбарах», — сказаў Снел, назваўшы Вялікабрытанію «паддоследнай свінкай» для галасавання ў 2024 годзе.

Ён падкрэсліў праграмнае забеспячэнне, якое можа аднавіць чыйсьці голас з 30-секунднага ўзору, і тое, як гэтым можна злоўжываць.

Прадстаўнік аховы здароўя лейбарыстаў Уэс Стрытынг заявіў, што стаў ахвярай глыбокай падробкі аўдыё, у якой ён, здаецца, абражаў калегу.

Снэл параіў уладам засяродзіцца на «кароткім» рашэнні, каб «інфармаваць людзей, каб людзі зразумелі, што гэта праблема».

Іншае праграмнае забеспячэнне можа быць выкарыстана для стварэння фальшывых фатаграфій і відэа, нягледзячы на ​​​​фільтры ў многіх праграмах штучнага інтэлекту, прызначаных для прадухілення адлюстравання рэальных людзей.

«Штучны інтэлект, хоць і вельмі дасканалы, яго вельмі лёгка падмануць», каб стварыць вобразы рэальных людзей, сказаў Снэл.

AI таксама выкарыстоўваецца для стварэння «робатаў», якія аўтаматычна напаўняюць сацыяльныя сеткі каментарамі, каб сфарміраваць грамадскую думку.

«Раней ботаў было вельмі лёгка заўважыць. Вы бачылі, што адно і тое ж паведамленне паўтараецца некалькімі ўліковымі запісамі», — сказаў Снел.

«Але з дасканаласцю штучнага інтэлекту… вельмі лёгка стварыць ферму ботаў, якая можа мець 1000 ботаў, і кожны з іх мае розны стыль зносін», – дадаў ён.

Нягледзячы на ​​тое, што ўжо існуе праграмнае забеспячэнне для праверкі, ці былі відэа і малюнкі створаны з дапамогай штучнага інтэлекту на «высокім узроўні кампетэнцыі», яно яшчэ не выкарыстоўваецца дастаткова шырока, каб спыніць праблему.

Снел лічыць, што галіна штучнага інтэлекту і сацыяльныя сеткі павінны ўзяць на сябе адказнасць за стрымліванне дэзінфармацыі, «таму што мы знаходзімся ў цудоўным новым свеце, дзе заканадаўцы паняцця не маюць, што адбываецца».

Рам Элбойм, генеральны дырэктар амерыканскай кампаніі па кібербяспецы Sygnia, папярэдзіў, што традыцыйныя кібератакі застаюцца пагрозай
Рам Элбойм, генеральны дырэктар амерыканскай кампаніі па кібербяспецы Sygnia, папярэдзіў, што традыцыйныя кібератакі застаюцца пагрозай
AFP
Былы лідар кансерватараў Іэн Дункан Сміт, крытык Кітая, заявіў, што яго выдавалі за сябе ў Інтэрнэце
Былы лідар кансерватараў Іэн Дункан Сміт, крытык Кітая, заявіў, што яго выдавалі за сябе ў Інтэрнэце
AFP

دیدگاهتان را بنویسید