Қазіргі таңда нейрожелілер кез келген адамның цифрлық егізін жасауға қабілетті. Олар адамның тек сырт келбетін ғана емес, дауысын да нанымды түрде көшіре алады. Бұл технология көпшілікке қолжетімді болған сәттен бастап , оны алаяқтар да белсенді түрде пайдалана бастады, деп хабарлайды El.kz интернет порталы.
Дипфейк ұғымы қайдан шыққан?
Ағылшын тіліндегі deepfake сөзі екі бөліктен құралған: deep learning — «терең оқыту» және fake — «жалғандық». Бұл – жасанды интеллект пен машиналық оқытуға негізделген контентті жасанды түрде синтездеу әдісі. Мұндай технология арқылы нейрожелі бір адамның бейнесі мен дауысын екіншісіне дәл жапсырып, нәтижесінде адамның жүзі, мимикасы, қимыл-қозғалысы мен дауысы бейнежазбада немесе аудиофайлда шынайыға ұқсас, бірақ жалған түрде беріледі.
Дипфейк технологиясының бастамасы 1990-жылдары, цифрлық бейнежазбалар дами бастаған кезеңде қаланды. 1997 жылы Video Rewrite компаниясы адамның сөйлеу артикуляциясын синтезделген аудиомен үйлестіре алатын жүйені ұсынды. Дегенмен, дипфейктің кеңінен танылған алғашқы мысалы 2017 жылы Reddit платформасында жарияланды. Онда танымал тұлғалардың жүздері ересектерге арналған видеода басқа актёрлердің денесіне жапсырылған еді.
Қазіргі таңда бұл технология киноөндірісте кеңінен қолданыс тапқан. Белгілі актёрдің цифрлық көшірмесін пайдалану арқылы шығармашылық мүмкіндіктерді кеңейтуге жол ашылады. Сондай-ақ, жарнама саласында дипфейк технологиясы маркетинг шығындарын азайтуға ықпал етеді.
Бұдан бөлек, дипфейк дубляж сапасын жақсартып, мұражайлар мен көрмелерде толықтырылған шындық (AR) элементтері арқылы танымдық әсерді күшейтеді. Технологияны болашақта ұрпақтармен «қарым-қатынас» орнату мақсатында адамның виртуалды көшірмесін жасау үшін де қолдану жоспарлануда.
Дипфейктің қауіпті қыры
Өкінішке қарай, бұл технология жалған ақпарат тарату, манипуляция жасау және қоғамдық пікірге әсер ету мақсатында да қолданылып жүр. Саясаткерлердің, танымал тұлғалардың немесе қоғам қайраткерлерінің бейнесі мен дауысы жасанды түрде қалыптастырылып, олардың атынан жалған мәлімдемелер таратылады.
Кейбір жағдайларда алаяқтар дипфейк арқылы ұйым басшыларының бейнесін жасап, қызметкерлерге жалған тапсырма береді. Мысалы, қызметкер өзінің басшысынан бұйрық келді деп ойлап, ірі көлемдегі қаржыны белгісіз есепшотқа аударып жіберген.
Тіпті танымал кәсіпкерлердің атынан жасалған дипфейк бейнематериалдар таралып, «жоғары табысқа жетудің құпиясын» ұсынамыз деген желеумен адамдарды жалған инвестициялық сайттарға бағыттау әрекеттері тіркелген.
Дипфейкті қалай анықтауға болады?
Егер қандай да бір бейне немесе аудиожазбаға күмән туса, алдымен оны мұқият қарап шығыңыз. Келесі белгілерге назар аударыңыз:
-
ерін мен қастың қозғалысы табиғи емес немесе үндеспеуі;
-
көздің тым сирек немесе біртүрлі жыпылықтауы;
-
жарықтың біркелкі түспеуі, көлеңкелердің дұрыс түспеуі;
-
тері реңктерінің әркелкі болуы;
-
бет әлпетінің шекараларындағы бұлдырлық, пиксельдердің сәйкес келмеуі.
Алайда қазіргі заманғы дипфейк технологиялары барған сайын жетіліп келеді. Кей жағдайларда мұндай жалған бейнені жай көзбен анықтау мүмкін болмай қалады. Мұндайда арнайы анықтау құралдары көмектеседі — олар бейнематериалда жасырын бұрмалауларды автоматты түрде тауып береді.
Дипфейкті анықтауға арналған тегін құралдар
-
Forensically — суреттерді терең талдауға арналған онлайн құралдар жиынтығы. Қарапайым әрі қолдануға ыңғайлы.
-
Image Edited — суретті пиксель деңгейінде тексеріп, кез келген өңдеулер мен өзгерістерді анықтайды.
-
Ghiro — криминалистикалық сараптама жүргізуге арналған бағдарлама. Көптеген бейнелерді автоматты түрде талдай алады.
-
Truepic — фото және видеоматериалдарда өзгерістердің бар-жоғын тексереді.
-
KaiCatch — жасанды интеллект негізінде фото және видеодағы визуалды ақаулар мен бұрмалауларды анықтайды.
-
Microsoft Video Authenticator — бейнежазбада монтаж немесе манипуляция жасалған-жасалмағанын анықтайды.
-
Deepware — бейнежазбаларды дипфейкке тексеруге арналған тегін әрі тиімді құрал.
Аудио-дипфейкпен күрес қиынырақ
Аудио дипфейктерді жасау оңай болғанымен, оларды анықтау әлдеқайда қиын. Жалған дауыс жасау үшін адамның небәрі бірнеше секундтық аудиожазбасы жеткілікті. Қазіргі технологиялар аудио жазбаларды мәтін секілді өңдеп, дауысқа өзгерістер енгізуге мүмкіндік береді.
Алайда ғалымдар адамның сөйлеуінде анатомиялық ерекшеліктердің — дауыс сіңірлері, тіл, жақ сүйегі мен ерін қозғалысының — үлкен рөл атқаратынын айтады. Ал жасанды интеллект бұл табиғи ерекшеліктерді дәл ескере алмайды. Нәтижесінде, дипфейк-дауыстарда адамның көмейі мүлде шығара алмайтын дыбыстар кездесіп жатады.
Дипфейктен қалай қорғануға болады?
Дипфейк технологиясын толықтай тоқтату мүмкін емес, сондықтан ең тиімді тәсіл — жеке киберқауіпсіздік мәдениетін қалыптастыру. Ол үшін келесі қарапайым, бірақ маңызды ережелерді сақтаңыз:
-
жеке фото және бейнематериалдарды әлеуметтік желілерге жүктеуді шектеңіз немесе олардың құпиялық баптауларын мұқият бақылаңыз;
-
әріптестеріңіз бен жақындарыңызды дипфейк технологиясының мүмкіндіктері мен қауіптері туралы ескертіңіз;
-
күмән туындаған жағдайда ақпаратты растау үшін балама байланыс арнасын қолданыңыз (мысалы, телефон соғу);
-
бейнеқоңырау кезінде адамның жеке өзі ғана білетін деректерді сұрап, оның шынайылығына көз жеткізіңіз;
-
мықты құпиясөздер қолданып, антивирустық бағдарламалар орнатыңыз, деректеріңізді үнемі резервтік көшірмелеп отырыңыз.
Қосымша қорғаныс тәсілдері де бар. Мысалы, кейбір бағдарламалар бейнежазбаларға «су таңбасына» ұқсас арнайы белгілер енгізеді. Басқа тәсіл — видеоны тануға кедергі келтіретін пиксельдік код енгізу. Бұл әдіс дипфейк жасау процесін күрделендіріп, оның сапасын төмендетеді, нәтижесінде жалғандықты анықтау оңайырақ болады.
Алайда ең басты әрі сенімді қорғаныс — адамдардың ақпараттық сауаттылығы мен технологиялық қауіптерден хабардар болуы.