in

Хиймэл оюун ухаантай ажиллах нь хүмүүсийг хуурч мэхлэх магадлалыг нэмэгдүүлдэг

Хиймэл оюун ухаантай ажиллах нь хүмүүсийг хуурч мэхлэх магадлалыг нэмэгдүүлдэг

Хиймэл оюун ухаан ба ёс зүйн зай: Заль мэх, хариуцлага, шийдэл

Хиймэл оюун ухааныг (AI) өдөр тутмын шийдвэрт ашиглах нь зөвхөн технологийн дэвшил төдийгүй ёс зүйн гүн гүнзгий асуудлуудыг ч сөхөж байна. Сүүлийн үед хийгдсэн зан үйлийн олон улсын томоохон судалгаанд хиймэл оюун ухааныг “Туслагч” болгох үед хүний ёс суртахуун хэрхэн өөрчлөгдөж байгааг нарийн шинжилжээ.

Судалгааны үр дүнгээс харахад хүмүүс AI-д заавар өгч, хариуцлагыг бусдад шилжүүлэх үед илүү зальтай, шударга бус шийдвэр гаргах хандлага нь нэмэгддэг байна.

Машинд заавар өгсөн үед хүмүүс илүү зальтай болдог

Германы Макс Планкийн Хүний Хөгжлийн Хүрээлэн, Францын Тулузын Эдийн засгийн сургууль, Дуйсбург-Эссений Их сургууль зэрэг байгууллагууд хамтран нийт 8000 оролцогчтой 13 удаагийн зан үйлийн туршилт хийжээ. Энэхүү туршилтад хүмүүс хиймэл оюун ухаанд үндэслэн тодорхой зорилго, зааврыг дамжуулж, AI агентууд тэдгээрийг хэрхэн биелүүлж буйг ажигласан байна.

Сонирхолтой нь, оролцогчид өөрсдөө шууд үйлдэл хийх үед үнэнч байдлын түвшин 95 хувьтай байсан бол AI-г оролцуулж, хариуцлагыг “машин руу шилжүүлэхэд” энэ үзүүлэлт эрс буурчээ.

  • Дүрэмд тулгуурласан нөхцөлд үнэнч байдал 75 хувь болж буурсан бол,
  • Хяналттай сургалтын орчинд ердөө 50 хувь хүрч,
  • Зорилго нь тодорхойгүй байх үед заль мэх гаргах хандлага 84 хувьтай болж огцом өссөн байна.

Судалгааны гол судлаач Нилс Кёбис “Хүмүүс AI-ийг зуучлагч болгон ашиглах үед ёс зүйгээс ухарч, үр дагаврын хариуцлагаас өөрсдийгөө салгасан мэт ханддаг нь энэ бүхний үндэс” хэмээн тайлбарлажээ.

Машин ёс суртахууны хязгаарыг үл тоомсорлодог

AI системүүдийн хувьд ёс зүйн хязгаарлалт, үнэт зүйлсийн сэтгэлзүй байхгүй учир, “ёс зүйгүй” даалгаврыг гүйцэтгэхэд хүнээс хавьгүй өндөр хувьтай байгааг судалгаа харуулсан.

  • Хүмүүсийн 25–40 хувь нь ёс суртахуунд харш зааврыг биелүүлж байсан бол,
  • GPT-4, GPT-4o, Claude 3.5, Llama 3 зэрэг AI загваруудын хувьд энэ хувь 58–98 хүрч байжээ.

Судлаачид “AI нь ёс зүйн зардлыг тооцдоггүй, хүний адил сэтгэлзүйн шүүлтүүргүй тул буруу үйлдлийг ч төвөггүй гүйцэтгэж чаддаг” хэмээн дүгнэсэн байна.

Хариуцлагыг хуваалцаж бус, ухамсарлах хэрэгтэй

Технологи хурдасч, шийдвэр гаргалт автоматжихын хэрээр бид “шилжүүлэлтийн ашиг” гэх нэрийн дор ёс суртахууны хариуцлагаас бултах нөхцөл бүрдэж болзошгүй. Гэвч энэ нь эргээд хүний ёс суртахууны “хувийн эзэмшил” байхаа болино гэсэн үг биш юм.

Судлаачдын зүгээс “Зөвийг хийхэд амар, бурууг хийхэд хэцүү болгодог” технологийн загварчлал, бодлогын зохицуулалт хэрэгтэйг онцолж байна.

Түүнчлэн хиймэл оюун ухааныг ашиглаж буй аливаа байгууллага, хувь хүн ёс суртахууны шалгуураа тодорхой, ил тод байлгах шаардлагатай. Учир нь AI бол хариуцлагаас зугтах халхавч биш – харин хариуцлагыг бүр ч өндөр төвшинд ухамсарлах шалтгаан юм.

📚 Энэхүү судалгаа Nature сэтгүүлд нийтлэгдсэн бөгөөд технологийн хурдац, ёс суртахууны хязгаар, хүний хандлагын огтлолцол дээр хийсэн онцлох бүтээлд тооцогдож байна.
🔗 Эх сурвалж: Earth.com

What do you think?

Леванте 1-4 Реал Мадрид: Тоглолтын тойм, үр дүн, гоолууд, Вини Жуниорын сэтгэгдэл

Леванте 1-4 Реал Мадрид: Тоглолтын тойм, үр дүн, гоолууд, Вини Жуниорын сэтгэгдэл

EFL цом: Хуго Экитикэгийн улаан карт ба Премьер лигийн дүрэм

EFL цом: Хуго Экитикэгийн улаан карт ба Премьер лигийн дүрэм