фото: pexels.com
Жасанды интеллект қоғам өмірінің көптеген саласына дендеп енді. Оның артықшылықтарымен қатар, алаңдаушылық туғызатын тұстары да жоқ емес. Соның бірі – дипфейктердің қарқын алуы. Бұл туралы "Сапалы Қазақстан" порталы inbusiness.kz сайтына сілтеме жасап хабарлайды.
Бүгінде бұл технология жалған ақпарат тарату, алаяқтық сияқты мақсаттарда жиі пайдаланылады. Сарапшылар дипфейктерді шынайы дүниеден ажырату күннен күнге қиындай түскенін мойындап отыр.
Жалпы алғанда дипфейк деп жасанды интеллект көмегімен жасалатын жалған сурет, бейне немесе аудиожазбаларды атайды. Target Information Security директоры, ақпараттық қауіпсіздік аудиторы Лаура Тлепинаның айтуынша, дипфейктерді анықтау – техникалық тұрғыдан күрделі міндет.
"Сарапшылар арнайы машиналық оқу алгоритмдерін пайдалану арқылы бейне мен аудиодағы көзге көрінбес ұсақ бөлшектерге назар аударады. Мысалы, жасанды видеоларда кейде бет бөліктерінің шекарасындағы бұзылыстар немесе сөйлеген сөз бен ерін қимылының арасындағы сәйкессіздік байқалуы мүмкін. Мұндай артефактілерді, яғни қолдан жасалған дүниені іздеу – осы дипфейкті танудың бір жолы. Бұдан бөлек, жалған контент көбінесе әлеуметтік желілерде белгісіз аккаунттар, боттар арқылы тарайды. Сондықтан күмәнді жазбаның метадеректерін қарау да көмектеседі", – деді сарапшы.
Сала маманы жасанды интеллект тудырған қазіргі дипфейктерді анықтау күннен-күнге қиындап бара жатқанын айтады.
Оның сөзінше, алгоритмдер мен детекторлар жаңа пайда болған фейктерге ілесе алмай келеді. Қазір фейктер бұрынғыдан шынайы көрінеді, себебі Deepfake технологиясы үздіксіз жетілдіріліп жатыр, деп есептейді ол.
"Қазіргі дипфейктер кәдімгі видео сияқты табиғи көрінеді, сондықтан кейбір жалған роликтерді көзбен қарап анықтау мүмкін емес. Оларды талдау үшін AI детекторлары мен сарапшылардың көмегі қажет болады. Сондай-ақ, дипфейктер тарай бастаған соң кез келген шынайы видеоның өзін біреулер бұл компьютерде жасалған деуі мүмкін. Мұндай жағдайда қоғамда ақпаратқа деген сенім төмендейді. Яғни, дипфейк жалған контент таратып қана қоймай, шынайы деректердің беделіне де әсер етеді", – деп атап өтті Лаура Тлепина.
Дипфейктердің қоғам мен мемлекет үшін ең басты қаупі неде?
Ақпараттық қауіпсіздік аудиторы дипфейктердің ең үлкен қаупі жалған ақпараттың шынайы боп көрінуінде дейді.
"Қаскөйлер мұндай видеолар мен аудиоларды қоғамды алдау, арандату мақсатында пайдалануы мүмкін. Мемлекет үшін дипфейктер сайлау науқандары және жалпы ақпараттық қауіпсіздік саласында қатер тудырады. Мәселен, бір саясаткердің атынан жалған мәлімдеме беріліп, сайлаушылардың таңдауына ықпал етуге тырысуы да мүмкін. Қоғам үшін бұл технологияның қаупі – жалпы ақпаратқа деген сенімнің жоғалуы. Экрандағы кез келген бейне шындыққа сәйкес келмеуі мүмкін деп ойлай бастасақ, онда адамдар ресми жаңалыққа да, бір-бірінің сөзіне де күмәнмен қарайтын болады. Тағы бір зиян – жеке адамдарға жасалатын шабуылдар. Әсіресе, танымал тұлғалардың немесе қарапайым азаматтардың абыройын түсіретін материалдар дайындалуы мүмкін", – деп түсіндірді сала маманы.
Лаура Тлепина алғашында мұндай технология энтузиаст бағдарламашылар мен интернет қолданушылардың ермегі болғанын айтады.
"Яғни, кейбірі танымал фильм кейіпкерлерінің үстіне басқа адамның бет-бейнесін салу сияқты әзіл видеолар жасаумен шектелді. Алайда технология қолжетімді болған сайын оны қолданушылар қатары да артты. Қазір дипфейк жасауға қажетті құралдар интернетте ашық тұр. Биыл Қазақстанда белгісіз біреулер бірнеше танымал журналист пен шенеуніктің бейнесін қолданып, жалған видеолар таратты, кейін ол бейнежазбалардың жасанды екені анықталды. Өкінішке қарай, мұндай арандатушыларды табу қиын, ал зиянды ақпарат желіде жылдам тарайды", – деді Target Information Security директоры.
Елімізде дипфейктердің таралу деңгейі қандай?
"Қазақстанда дипфейк әзірге кең таралған құбылыс емес деуге болады. Қазіргі кезде жалған жаңалықтардың басым бөлігі дәстүрлі фотомонтаж, жалған мәтін, фейк аккаунт арқылы таратылатын ақпарат түрінде көрінеді. Ал толыққанды AI генерациялаған бейнежазбалар сирек кездеседі. Бірақ әлемдік трендтерге қарасақ, таяу болашақта дипфейк жасау жеңілдеп, көпшілікке қолжетімді бола түсуі ықтимал. Яғни, қазірден бастап қауіпті технологиядан қорғану шараларын қолға алмасақ, ертең кеш болуы мүмкін. Десек те, бүгінгі таңда Қазақстанда бұл мәселеге назар аударыла бастады", – деп атап өтті Лаура Тлепина.
Сарапшы дипфейктерден қорғану үшін ақпараттық сауаттылықты арттыру маңызды екенін айтады. Айтуынша, ол үшін мектеп оқушыларынан бастап мемлекеттік қызметкерлерге дейін ақпараттық қауіпсіздік бойынша білім беру қажет.
Жаңа заң
17 қараша күні Мемлекет басшысы Қасым-Жомарт Тоқаев "Жасанды интеллект туралы" заңға қол қойды. Құжат арқылы ЖИ жүйелері қызметінің негізгі қағидаттары енгізілді. Заңда дипфейк тақырыбы да шет қалмаған.
"Жеке және заңды тұлғалардың құқықтарын қорғау, сондай-ақ құқықтық тәртіпті қамтамасыз ету мақсатында Қазақстан Республикасының аумағында бірқатар мүмкіндіктерге ие жасанды интеллект жүйелерін құруға және пайдалануға тыйым салынды (түпсаналық, манипуляциялық немесе жеке деректер туралы заңнаманы бұзу арқылы жеке деректерді жинау және өңдеу әдістерін қолдану; басқа да мүмкіндіктер)", – делінген Ақорда таратқан хабарламада.
Комментарии
Чтобы оставить комментарий зарегистрируйтесь или войдите
Авторизация через