Фота з архіва
5 лістапада, Мінск /Кар. БЕЛТА/. Начальнік упраўлення лічбавізацыі галоўнага ўпраўлення лічбавага развіцця папярэдняга следства Следчага камітэта (СК) Пётр Зарэцкі расказаў карэспандэнту БЕЛТА аб тым, як махляры выкарыстоўваюць штучны інтэлект для ўчынення злачынстваў.
"Уплыў штучнага інтэлекту на бяспеку асобы, грамадства і дзяржавы мае дваісты характар. Праваахоўныя і іншыя дзяржорганы большасці краін актыўна выкарыстоўваюць ШІ-сістэмы для ўмацавання правапарадку, прафілактыкі і расследавання злачынстваў, а таксама для павышэння эфектыўнасці сваёй работы. Такія тэхналогіі, як распазнаванне твараў і аўтамабільных нумароў, пераўтварэнне маўлення ў тэкст і паляпшэнне якасці аўдыя- і відэаматэрыялаў даказалі сваю высокую эфектыўнасць у рабоце айчынных "электронных вартавых парадку", - расказаў Пётр Зарэцкі.
Але ёсць і другі бок медаля. "Крымінальныя структуры таксама актыўна асвойваюць штучны інтэлект, знаходзячы яму прымяненне ў злачынных мэтах. Так, у Беларусі былі зарэгістраваны злачынствы, заснаваныя на тэхналогіі deep-fake: махляры з дапамогай нейрасетак стваралі голас і відэааблічча сваяка ахвяры, што прымушала людзей перадаваць ім значныя сродкі. Другі метад - маштабная рассылка ў інтэрнэце рэкламы з несапраўднымі зваротамі кіраўнікоў, прадстаўнікоў бізнесу і публічных асоб, якія заманьваюць у фінансавыя піраміды", - падкрэсліў прадстаўнік СК.
І гэта характэрна не толькі для Беларусі. "Штучны інтэлект адкрывае новыя магчымасці для злачыннай дзейнасці. У свеце фіксуюцца выпадкі, калі з дапамогай фальшывых відэа зламыснікі паспяхова праходзяць праверкі банкаўскіх антыфрод-сістэм. Аўтаматызацыя дасягае такога ўзроўню, што махлярскія кол-цэнтры працуюць на аснове ШІ, які самастойна вядзе дыялогі з дзясяткамі абанентаў, вылічае найбольш слабых і толькі ў крытычны момант перадае размову рэальнаму аферысту. Пры гэтым сучасныя тэхналогіі рэзка знізілі патрабуемы для кіберзлачынстваў узровень навыкаў: стварэнне фішынгавага сайта-двайніка цяпер магчыма за некалькі гадзін работы з ChatGPT. Расце і прымяненне ШІ ў такіх небяспечных сферах, як распрацоўка камп'ютарных вірусаў, генерацыя дзіцячай парнаграфіі і выраб кампраметуючых фэйкавых матэрыялаў", - адзначыў начальнік упраўлення.
Як засцерагчы сябе ад злачынных хітрыкаў, створаных з дапамогай ШІ? "У сучасным свеце да любога медыякантэнту неабходна ставіцца з крайнім недаверам. Прынцып "не вер вачам сваім" стаў актуальным як ніколі. Уявіце: у час відэазванка ваша бабуля са слязамі просіць тэрмінова перадаць ёй грошы праз кур'ера. Высокая верагоднасць, што гэта махляр. Сапраўднасць такіх сітуацый лёгка праверыць: проста перазваніце блізкаму чалавеку па вядомаму вам нумару ці прапануйце сустрэцца асабіста. Калі субяседнік пачне ўхіляцца ад сустрэчы - гэта дакладная прыкмета падману", - падкрэсліў Пётр Зарэцкі.
Ён таксама звярнуў увагу на тое, што для капіравання голасу або стварэння відэадвайніка, неабходны зыходны матэрыял, якога сучасныя маладыя людзі (ды і не толькі маладыя) пакідаюць у сетцы вельмі шмат. "Ваша лічбавая бяспека знаходзіцца ў адваротнай залежнасці ад аб'ёму асабістай інфармацыі, даступнай у сетцы. Чым менш даных пра вас вядома інтэрнэту, тым вышэйшая ваша абароненасць", - рэзюмаваў прадстаўнік СК.-0-
"Уплыў штучнага інтэлекту на бяспеку асобы, грамадства і дзяржавы мае дваісты характар. Праваахоўныя і іншыя дзяржорганы большасці краін актыўна выкарыстоўваюць ШІ-сістэмы для ўмацавання правапарадку, прафілактыкі і расследавання злачынстваў, а таксама для павышэння эфектыўнасці сваёй работы. Такія тэхналогіі, як распазнаванне твараў і аўтамабільных нумароў, пераўтварэнне маўлення ў тэкст і паляпшэнне якасці аўдыя- і відэаматэрыялаў даказалі сваю высокую эфектыўнасць у рабоце айчынных "электронных вартавых парадку", - расказаў Пётр Зарэцкі.
Але ёсць і другі бок медаля. "Крымінальныя структуры таксама актыўна асвойваюць штучны інтэлект, знаходзячы яму прымяненне ў злачынных мэтах. Так, у Беларусі былі зарэгістраваны злачынствы, заснаваныя на тэхналогіі deep-fake: махляры з дапамогай нейрасетак стваралі голас і відэааблічча сваяка ахвяры, што прымушала людзей перадаваць ім значныя сродкі. Другі метад - маштабная рассылка ў інтэрнэце рэкламы з несапраўднымі зваротамі кіраўнікоў, прадстаўнікоў бізнесу і публічных асоб, якія заманьваюць у фінансавыя піраміды", - падкрэсліў прадстаўнік СК.
І гэта характэрна не толькі для Беларусі. "Штучны інтэлект адкрывае новыя магчымасці для злачыннай дзейнасці. У свеце фіксуюцца выпадкі, калі з дапамогай фальшывых відэа зламыснікі паспяхова праходзяць праверкі банкаўскіх антыфрод-сістэм. Аўтаматызацыя дасягае такога ўзроўню, што махлярскія кол-цэнтры працуюць на аснове ШІ, які самастойна вядзе дыялогі з дзясяткамі абанентаў, вылічае найбольш слабых і толькі ў крытычны момант перадае размову рэальнаму аферысту. Пры гэтым сучасныя тэхналогіі рэзка знізілі патрабуемы для кіберзлачынстваў узровень навыкаў: стварэнне фішынгавага сайта-двайніка цяпер магчыма за некалькі гадзін работы з ChatGPT. Расце і прымяненне ШІ ў такіх небяспечных сферах, як распрацоўка камп'ютарных вірусаў, генерацыя дзіцячай парнаграфіі і выраб кампраметуючых фэйкавых матэрыялаў", - адзначыў начальнік упраўлення.
Як засцерагчы сябе ад злачынных хітрыкаў, створаных з дапамогай ШІ? "У сучасным свеце да любога медыякантэнту неабходна ставіцца з крайнім недаверам. Прынцып "не вер вачам сваім" стаў актуальным як ніколі. Уявіце: у час відэазванка ваша бабуля са слязамі просіць тэрмінова перадаць ёй грошы праз кур'ера. Высокая верагоднасць, што гэта махляр. Сапраўднасць такіх сітуацый лёгка праверыць: проста перазваніце блізкаму чалавеку па вядомаму вам нумару ці прапануйце сустрэцца асабіста. Калі субяседнік пачне ўхіляцца ад сустрэчы - гэта дакладная прыкмета падману", - падкрэсліў Пётр Зарэцкі.
Ён таксама звярнуў увагу на тое, што для капіравання голасу або стварэння відэадвайніка, неабходны зыходны матэрыял, якога сучасныя маладыя людзі (ды і не толькі маладыя) пакідаюць у сетцы вельмі шмат. "Ваша лічбавая бяспека знаходзіцца ў адваротнай залежнасці ад аб'ёму асабістай інфармацыі, даступнай у сетцы. Чым менш даных пра вас вядома інтэрнэту, тым вышэйшая ваша абароненасць", - рэзюмаваў прадстаўнік СК.-0-
