2025 онд Deepfake технологи шинэ түвшинд хүрсэн, цаашид юу болох бол?

Дипфейк 2025 онд эрс сайжирсан, 2026 онд бодит цагийн луйвар тэлнэ

Deepfake гэдэг нь хиймэл оюун ухаан (ялангуяа deep learning) ашиглан хүний царай, дуу хоолой, хөдөлгөөн, дүр төрхийг маш бодит мэтээр хуурамчаар бүтээх технологи юм.

2025 оны турш дипфейк технологи огцом сайжирч, хиймэл оюун ухаанаар үүсгэсэн нүүр царай, дуу хоолой, бүтэн биеийн дүрслэл бодит хүнийг дуурайх чанараараа хэдхэн жилийн өмнө төсөөлснөөс давжээ. Ялангуяа нягтрал багатай видео дуудлага, сошиалд эргэлдэх контент дээр энгийн хэрэглэгчдийг тогтмол хуурах хэмжээнд хүрч, зарим тохиолдолд байгууллагууд ч ялгаж танихад бэрх болсон байна.

Кибер аюулгүй байдлын DeepStrike компанийн тооцоогоор, интернэт дэх дипфейкийн тоо 2023 онд ойролцоогоор 500 мянга байсан бол 2025 онд 8 саяд хүрч, жилийн өсөлт нь 900%-д дөхсөн гэжээ. Дипфейк болон синтетик медиа судалдаг компьютерын шинжлэх ухаанч Сивэй Лью 2026 онд нөхцөл байдал улам дордож, хүмүүсийн үйлдэлд бодит цагт хариу өгдөг “синтетик жүжигчин” хэлбэр рүү шилжинэ гэж анхааруулсан байна.

Энэхүү өсөлтийг хэд хэдэн технологийн өөрчлөлт хөтөлсөн. Нэгдүгээрт, “түр зуурын уялдаа” (temporal consistency)-г сайжруулсан видео үүсгэгч загварууд хөдөлгөөн, хүний төрхийг кадр хооронд тогтвортой барьж, өмнө нь илрүүлэлтэд ашиглагддаг нүд, эрүү орчмын анивчилт, гажилтыг бараг арилгасан. Түүнчлэн хүний “таних шинж” ба хөдөлгөөний мэдээллийг салгаж боловсруулснаар нэг хөдөлгөөнийг өөр өөр хүний төрхөд, эсвэл нэг хүнийг олон төрлийн хөдөлгөөнтэй дүрслэх боломж өргөжсөн байна.

Хоёрдугаарт, дуу хоолой хуулбарлалт “ялгагдашгүй босго”-г давж, хэдхэн секундын аудиогоор өнгө аяс, хэмнэл, сэтгэл хөдлөл, амьсгал хүртэл дуурайсан үнэмшилтэй хоолой үүсгэх түвшинд хүрчээ. Үүний улмаас залилангийн дуудлага огцом өсөж, зарим томоохон жижиглэн худалдааны сүлжээ өдөрт 1,000 гаруй хиймэл оюунд суурилсан луйврын дуудлага хүлээн авдаг болсон талаар мэдээлсэн байна.

Гуравдугаарт, хэрэглэгчийн түвшний багажуудын босго бараг тэг болж, OpenAI-ийн Sora 2, Google-ийн Veo 3 зэрэг бүтээгдэхүүнүүд болон стартапуудын үйлчилгээтэй хослон, санаагаа бичээд том хэлний загвар (LLM)-аар сценарийг боловсруулж, хэдхэн минутын дотор чанартай аудио-визуал контент гаргах боломж өргөн дэлгэрсэн. AI агентууд бүтээх процессыг автоматжуулснаар, зохиолын уялдаатай дипфейкийг их хэмжээгээр үйлдвэрлэх чадвар “ардчилсан” буюу хэн ч ашиглахуйц болсон гэж судлаачид дүгнэжээ.

Энэ нь дипфейкийг илрүүлэхэд томоохон сорилт үүсгэж, анхаарал сарнисан, мэдээлэл хурдтай түгдэг орчинд шалгалт баталгаажуулалтаас түрүүлэн тархах эрсдэлийг нэмэгдүүлж байна. Дипфейкээс үүдэлтэй бодит хор хөнөөл нь эрүүл мэндийн ташаа мэдээлэл, онилсон дарамт шахалт, санхүүгийн залилан зэрэг хэлбэрээр аль хэдийн ажиглагдаж эхэлжээ.

Цаашид гол чиг хандлага нь бодит цагийн синтез рүү шилжих явдал гэж Лью үзэж байна. Өмнө нь урьдчилан бэлтгэсэн клип давамгайлж байсан бол одоо “амьд” буюу бараг бодит цагт үүсгэх, хүний дүр төрхөөс гадна хөдөлгөөн, ярианы хэв маяг, зан авирын уялдаа (behavioral coherence)-г цаг хугацааны турш тогтвортой дуурайх системүүд эрчимжих төлөвтэй.

Ийм үед хамгаалалт нь зөвхөн хүний нүдээр пиксел ажиглах түвшнээс хальж, дэд бүтцийн шийдэл рүү шилжинэ гэж судлаачид онцолжээ. Үүнд криптографоор гарын үсэгтэй эх сурвалжийн баталгаажуулалт, Контентийн гарал үүсэл ба жинхэнэ байдлын эвсэл (C2PA)-ийн стандарт, мөн олон төрлийн өгөгдөлд тулгуурласан шүүх шинжилгээний хэрэгсэл—тухайлбал Льюгийн лабораторийн Deepfake-o-Meter зэрэг—чухал болохоор байна.

Эх сурвалжийн дэлгэрэнгүй

СЭТГЭГДЭЛ

Please enter your comment!
Please enter your name here