AI роботуудаас алдааныхаа талаар асуух нь яагаад алдаа вэ?

нийтлэгч Содном Энхбаяр
AI-гаас алдааных нь шалтгааныг асуух нь яагаад утгагүй вэ?

Хиймэл оюун ухааны туслахад ямар нэг зүйл буруу болвол бидний зөн совингоор “Юу болсон бэ?” гэж шууд асуух явдал байдаг. эсвэл “Чи яагаад үүнийг хийв?” Энэ нь мэдээжийн хэрэг бөгөөд хэрэв хүн буруутай бол бид тэднээс тайлбарлахыг хүсдэг. Гэхдээ хиймэл оюун ухаантай загваруудын хувьд энэ арга нь бараг хэзээ ч ажиллахгүй бөгөөд энэ зуршил нь өөрөө эдгээр системүүд юу болох, хэрхэн ажилладаг талаар үндсэн буруу ойлголттой байгааг харуулж байна. Үүнийг Ars Technica хэлж байна.

Практик жишээнүүд

Код бөглөх хэрэгсэл болох Replit AI-ийн саяхан гарсан тохиолдол нь асуудлыг сайн харуулж байна. AI хэрэгсэл нь ажиллаж байгаа мэдээллийн санг устгахад хэрэглэгч Жэйсон Лемкин түүнээс сэргээх сонголтуудын талаар асуув. Загвар нь “буцах боломжгүй” бөгөөд энэ нь “өгөгдлийн сангийн бүх хувилбарыг устгасан” гэж итгэлтэйгээр мэдэгдэв. Энэ нь худал болж хувирав – Лемкин практик дээр нотолсон шиг сэргээх функц ажилласан.

xAI нь Grok чатботыг түр зогсоосны дараа үүнтэй төстэй нөхцөл байдал үүссэн. Хязгаарлалт цуцлагдахад хэрэглэгчид тайлбар хүссэн. Грок хэд хэдэн харилцан зөрчилдсөн хувилбаруудыг гаргасан бөгөөд тэдгээрийн зарим нь өдөөн хатгасан шинжтэй байсан тул Грок өөрийн гэсэн улс төрийн байр суурьтай хүн юм шиг NBC энэ тухай нийтлэл хүртэл бичсэн байв.

AI яагаад тайлбар зохион бүтээдэг вэ?

Та ChatGPT, Claude, Grok, эсвэл Replit-тэй харьцахдаа “байнгын хувь хүн” эсвэл “ухамсарт”-тай харилцдаггүй, харин сургалтын өгөгдлөөс таны асуулга, загвар дээр тулгуурлан байж болох үгсийг сонгох статистикийн текст үүсгэгчийг удирдаж байна.

Эдгээр загваруудад яагаад тодорхой үйлдэл хийснээ, тэр байтугай юу хийж чадах, юу хийж чадахгүйг “мэдэх” чадвар байдаггүй. Тэдний “мэдлэг” нь сургалтын үе шатанд мэдрэлийн сүлжээний жин хэлбэрээр тогтоогддог бөгөөд бодит цаг хугацаанд шинэчлэгддэггүй. Нэмэлт мэдээлэл нь зөвхөн одоогийн хэрэглэгчийн асуулга эсвэл гадаад хэрэглүүрээс (хайлт гэх мэт) ирдэг.

LLM нь өөрөө шинжилгээ хийх боломжгүй

Хэлний том загварууд өөрсдийн чадавхийг хангалттай үнэлж чаддаггүй. Тэд өөрсдийн сургалтын үйл явц, архитектур, бодит гүйцэтгэлийн хэмжүүрүүдэд хандах эрхгүй. Тиймээс та загвар өмсөгчөөс юу хийж чадах, юу хийж чадахгүйг асуухад энэ нь бодит байдлын талаар бус бусад загварууд үүнийг хэрхэн дүрсэлсэнд үндэслэн “боловсролтой таамаглал”-ыг үр дүнтэй өгдөг.

2024 оны судалгаагаар хиймэл оюун ухаан нь энгийн ажлуудад өөрийн зан төлөвийг урьдчилан таамаглахад сургагдсан байсан ч төвөгтэй эсвэл стандарт бус хувилбаруудад бүтэлгүйтдэг болохыг харуулсан. Түүгээр ч барахгүй гадны санал хүсэлтгүйгээр “өөрийгөө засах” оролдлого нь заримдаа үр дүнг улам дордуулдаг.

Яагаад хариултууд нь цаг бүрт өөр байдаг

Ижил асуултууд, өөрөөр хэлбэл, эсрэг тэсрэг хариулт өгч болно. Загвар нь бусад тохиолдолд өөрөө амжилттай гүйцэтгэдэг ч тодорхой ажлыг боломжгүй гэж хэлж болно. Ижил асуулгын хувьд ч гэсэн хариултууд нь текст үүсгэх явцад санамсаргүй байдлын элементээс шалтгаалан өөр өөр байж болно.

“Хар хайрцгийн” нэмэлт давхаргууд

Орчин үеийн чатботууд нь бие биенийхээ талаар “мэддэггүй” хэд хэдэн загвар, үйлчилгээний давхаргаас бүрддэг. Жишээлбэл, ChatGPT нь үндсэн хэлний загварт хандах боломжгүй тусдаа зохицуулалтын загваруудтай. Үүний нэгэн адил загвар нь ямар гадны хэрэгслүүд холбогдсон, систем ямар хязгаарлалт тавьдагийг мэддэггүй.

Нэмж дурдахад хариултууд нь асуулгын үг хэллэгийн нөлөөн дор үргэлж үүсдэг. Хэрэв та санаа зовсон байдалтай: “Чи зүгээр л бүгдийг устгасан уу?” Гэж асуувал загвар нь бодитой үнэлгээ өгөхөөс илүүтэйгээр таны айдсыг батлах магадлалтай.

Тайлбарлах нь өөрийгөө ухамсарлаж байгаагийн шинж гэж бид бодож дассан. Харин хиймэл оюун ухааны хувьд энэ нь хүний хэв маягийг дуурайсан, ямар ч бодит дотоод үнэлгээгүйгээр зүгээр л бүтээгдсэн текст юм.

ProIT дээр бас уншина уу: “Элиза эффект” – хиймэл оюун ухааны туслахуудаас таны хүлээж байгаагүй зүйл. Хиймэл оюун ухаанд суурилсан чатботуудтай харилцахад маш их цаг зарцуулдаг хүмүүс тэдэнд антропоморф шинж чанаруудыг өгч эхэлдэг, өөрөөр хэлбэл тэд өөртэйгөө адилхан гэж үздэг. Үүний үр дагавар нь урьдчилан таамаглах аргагүй байж болох юм: жишээлбэл, 20 жил ханилсан Британийн нэгэн эмэгтэй саяхан хиймэл оюун ухааны туслах бүсгүйд дурласан тул нөхрөөсөө салсан байна. Өнгөц харахад ийм үйлдэл нь эрүүл ухаанаас давсан зүйл мэт боловч AI роботуудтай сэтгэл хөдлөлийн холболтын асуудал үнэхээр байдаг, хөгжиж байгаа бөгөөд ChatGPT болон түүний аналогууд гарч ирэхээс хамаагүй өмнө гарч ирсэн.

Холбоотой нийтлэлүүд

Сэтгэгдэл үлдээх

MongolTechNews — Монгол болон дэлхийн технологийн хамгийн сүүлийн үеийн мэдээ
MongolTechNews нь ухаалаг гар утас, хиймэл оюун ухаан, блокчэйн, финтек, стартап, программ хангамж, ирээдүйн технологи зэрэг Монгол болон дэлхийн технологийн салбарын хамгийн сүүлийн үеийн мэдээг танд хүргэнэ.