Сүүлийн үед хиймэл оюун ухаан (AI), ялангуяа “nudification” буюу хүний хувцсыг “тайлж” харуулдаг технологийн тусламжтайгаар насанд хүрээгүй хүүхдүүдийн бэлгийн шинж чанартай хуурамч дүрслэлийг зохион бүтээх явдал эрс нэмэгдэв. Ихэнх тохиолдолд өсвөр насны хөвгүүд энэ технологийг ашиглан ангийнхныхаа зураг, видеог хуурамчаар үйлдэж, цахим орчинд тарааж байгаа нь хохирогчдод сэтгэл зүйн асар их хор хөнөөл учруулж байна. Ийм төрлийн халдлагад өртсөн хүүхдүүд сургуульдаа явах, зургийг нь эвлүүлсэн хүмүүстэй нүүр тулахаас эмээдэг болжээ. Үүнтэй холбогдуулан олон улсын хэмжээнд зарим сургуулиуд жилийн цомогт сурагчдын зургийг оруулахгүй байх, албан ёсны цахим хуудсууддаа сурагчдын зураг нийтлэхийг хориглох зэргээр AI ашиглан “гүн хуурамч” (deepfake) дүрс бүтээх эрсдэлээс сэргийлж байна.
Deepfake технологи 2017 оноос хойш хөгжиж ирсэн ч сүүлийн үеийн “Generative AI” технологийн үсрэнгүй хөгжил нь нөхцөл байдлыг улам хүндрүүлэв. Одоо хэн ч техникийн тусгай мэдлэггүйгээр, ердөө хэдхэн товшилтоор бусдын зураг дээр тулгуурлан бэлгийн шинж чанартай дүрс бүтээх боломжтой аппликейшн, бот, вэбсайтуудыг ашиглаж байна. “RATI Foundation” байгууллагын захирал Сиддхартх Пиллай хэлэхдээ, технологийн саад бэрхшээл багассанаар өсвөр насныхан маш бага хүчин чармайлтаар бодит мэт дүрс бүтээдэг болсныг онцолжээ. Зарим тохиолдолд энэ нь зөвхөн бэлгийн сэдэлтэй бус, харин бусдыг гутаан доромжлох, нэр төрд нь халдах, нийгмийн хяналт тогтоох зорилготой байдаг аж.
“Anglia Ruskin” их сургуулийн судлаач Танья Хорек энэ асуудлыг зөвхөн технологийн хөгжилтэй холбон үзэх нь учир дутагдалтайг тэмдэглэжээ. Түүний үзэж буйгаар энэ нь бэлгийн хүчирхийллийг өөгшүүлдэг жендэрийн буруу тогтолцоо, нийгмийн динамикийн асуудал бөгөөд технологи нь зөвхөн үүнийг хэрэгжүүлэх хялбар хэрэгсэл болон хувирч байна. Энэхүү хямрал нь сургууль, эцэг эхчүүд болон технологийн компаниудаас аюулгүй байдлын шинэ стандарт, ёс зүйн боловсролыг яаралтай шаардаж буй томоохон сорилт болоод байна.

