Артқа

Орталықтандырылған биржа пайдаланушылары дипфейк технологиясының дамуына алаңдауы керек пе?

editor avatar

Өңдеген
Mohammad Shahid

14 Қаңтар 2026 21:46 UTC
  • ЖИ-мен жасалған дипфейктер тез таралып, жаһандық реттеуге түрткі болып, цифрлық сенімге қатысты жаңа алаңдаушылықтарды арттырып отыр.
  • Орталықтандырылған биржа KYC жүйелерінде қолданылатын селфи мен тіршілікті тексеруге нақты уақыттағы синтетикалық видео қарсы тұрады.
  • Күшті қорғаныс шараларын енгізбей, автоматтандырылған тіркеу орталықтандырылған биржаларды алаяқтық пен жеке бас деректерін теріс пайдаланудың өсуіне ұшыратуы ықтимал.

ЖИ-ге негізделген құралдардың дипфейк контентін жасау үшін жиі қолданылуы қоғамдық қауіпсіздік мәселелері бойынша жаңа алаңдаушылықтар тудырды.

Технология дамып, көпшілікке қолжетімді бола бастаған сайын, орталықтандырылған биржалар қолданатын визуалды сәйкестікті растау жүйелерінің сенімділігіне қатысты да сұрақтар туындайды.

Үкіметтер дипфейктерді шектеуге кірісіп жатыр

Алаяқтық видеолар әлеуметтік желі платформаларында жылдам таралып, дезинформацияның жаңа толқынына және жалған контентке қатысты алаңдаушылықтарды күшейтіп отыр. Бұл технологияның теріс пайдаланылуы көбейіп, қоғамдық қауіпсіздік пен жеке абыройды барған сайын әлсіретуде.

Мәселе ушығып, қазір әлем елдері дипфейктерді қолдануды заңсыз ететін заңдар қабылдап жатыр.

Осы аптада Малайзия мен Индонезия Grok атты, Илон Масктің xAI компаниясында жасалған жасанды интеллект чат-ботына қолжетімділікті шектеген алғашқы елдер болды. Билік өкілдері бұл шешімді оның теріс пайдалануымен, атап айтқанда, сексуалды сипаттағы және келісімсіз жасалатын суреттерді генерациялау бойынша туындаған алаңдаушылықтарға байланысты қабылдағанын айтты.

Калифорнияның бас прокуроры Роб Бонта да осындай шара қабылдағанын мәлімдеді. Сәрсенбі күні ол өзінің кеңсесі шынайы адамдардың келісімсіз сексуалды сипаттағы бейнелеріне қатысты бірнеше шағым бойынша тергеу жүргізіп жатқанын растады.

«Бұл материалдар әйелдер мен балаларды жалаңаш әрі сексуалды көріністерде көрсетіп, интернетте адамдарды қудалау үшін пайдаланылды. Мен xAI-ге мұндай әрекеттердің тоқтауын қамтамасыз ету үшін шұғыл шара қабылдауға шақырамын», – деді Бонта мәлімдемесінде.

Бұрынғы дипфейктерден айырмашылығы, жаңа құралдар сұраныстарға динамикалық түрде жауап беріп, табиғи бет бұлшықеттерінің қимылдарын және сөздердің синхронды айтылуын сенімді түрде қайталай алады.

Нәтижесінде, көзді жыпылықтату, жымию немесе бас қимылдары секілді қарапайым тексерулер қолданушының тұлғасын сенімді растауға бұрынғыдай мүмкіндік бермеуі ықтимал.

Мұндай жетістіктер орталықтандырылған биржалар үшін тікелей әсер етеді, өйткені олар onboarding процесінде визуалды тексеруге сүйенеді.

Орталықтандырылған биржаларға қысым күшейіп жатыр

Дипфейк арқылы жасалатын алаяқтықтың қаржылық салдары енді тек теориялық сипатта емес.

Сала сарапшылары мен технология зерттеушілері ЖИ жасаған суреттер мен видеолар енді жиі сақтандыру талаптарында және сот істерінде пайдаланыла бастағанын ескертіп отыр.

Әлемдік деңгейде жұмыс істейтін және көбіне автоматтандырылған onboarding жүйесіне сүйенетін крипто платформаларда тиісті қорғану шаралары бірге дамымаса, мұндай әрекеттердің нысанасына айналуы ықтимал.

ЖИ жасаған контент жеңіл қолжетімді болған сайын, тек визуалды тексеруге сүйенген сенім жеткіліксіз болуы ықтимал.

Крипто платформалар алдында тұрған басты міндет — технологиялар қолданушылар мен жүйелер қауіпсіздігін қорғауға арналған қорғану шараларынан бұрын дамып кетпей тұрып, тез бейімделу.

Жауапкершіліктен бас тарту

Біздің веб-сайттағы барлық ақпарат Trust Project нұсқаулығына сәйкес адал ниетпен және тек жалпы ақпарат беру мақсатында жарияланады. Біздің веб-сайттағы ақпаратқа сүйеніп қабылданған кез келген шешімге оқырманның өзі жауапты болады. Қосымша ақпаратты біздің Пайдалану шарттары, Құпиялылық саясаты және Жауапкершіліктен бас тарту ескертпесі беттерінен оқи аласыз.