Microsoft корпораци өөрийн Windows үйлдлийн систем болон Paint, Notepad зэрэг өдөр тутмын программдаа Copilot хиймэл оюун ухааныг (AI) эрчимтэй нэвтрүүлж байгаа ч үйлчилгээний нөхцөлдөө заасан нэгэн заалт нь хэрэглэгчдийг гайхшруулаад байна. Тус компани Copilot-ийг “зөвхөн зугаацуулах зорилготой” хэмээн тодорхойлж, түүний өгсөн мэдээлэлд найдахгүй байхыг анхааруулсан нь технологийн ертөнцөд маргаан дэгдээлээ.
Microsoft-ийн үйлчилгээний нөхцөлд “Copilot нь алдаа гаргаж болзошгүй тул чухал зөвлөгөө авахад ашиглаж болохгүй” гэж дурдсан нь тус компанийн сурталчилж буй “бүтээмжийг нэмэгдүүлэх үндсэн хэрэгсэл” гэх тодорхойлолттой зөрчилдөж байна.Reddit зэрэг платформ дээр хэрэглэгчид “Компани өөрөө бүтээгдэхүүнийхээ үнэн зөв байдалд итгэхгүй байхад бид яагаад үүнийг ажилдаа ашиглах ёстой гэж?” хэмээн шүүмжилж, Microsoft-ийг “Microslop” хэмээн хочлох болжээ.
Microsoft-ийн төлөөлөгч PCMag сэтгүүлд өгсөн тайлбартаа “Энэхүү заалт нь Copilot анх Bing хайлтын системийн нэмэлт хэрэгсэл байх үеийн хуучин найруулга бөгөөд одоогийн бодит чадамжийг илэрхийлэхгүй. Дараагийн шинэчлэлтээр үүнийг засна” гэж мэдэгдсэн байна. Гэвч хиймэл оюун ухаан хөгжүүлэгч компаниуд чатботуудынхаа чадварыг магтахын зэрэгцээ алдаа гарсан тохиолдолд хариуцлагаас зайлсхийхийн тулд ийм төрлийн заалтуудыг ашигласаар байгааг шинжээчид онцолж байна.
Технологийн салбарт томоохон хэлний загваруудыг (LLM) Аж үйлдвэрийн хувьсгалаас хойших хамгийн том ололт гэж үзэж байгаа ч тэдгээрийн гаргадаг “хий хоосон зүйлс” (hallucinations) буюу зохиомол мэдээллүүд нь бодит байдал дээр том асуудал болсоор байна. Тухайлбал, саяхан Amazon-д гарсан системийн саатал нь AI-ийн бичсэн алдаатай кодоос үүдэлтэй байж болзошгүй гэх мэдээлэл гарчээ. Үүнтэй холбогдуулан зарим компаниуд AI-аар үүсгэсэн кодыг зөвхөн ахлах инженерүүдийн зөвшөөрөлтэйгээр ашиглах хатуу зааварчилгаа гаргаж эхлээд байна.

