ПРОГРИД СИСТЕМС ХХК, Progrid Systems LLC,

🧠 AI туслахуудаар дамжсан шинэ луйврын арга — “Grokking"
image

🧠 AI туслахуудаар дамжсан шинэ луйврын арга — “Grokking"

Сүүлийн жилүүдэд хиймэл оюун ухаан (AI) бидний өдөр тутмын амьдралд хүчтэй нэвтэрч, ажил хөнгөвчлөх, мэдээлэл хайх, харилцаа холбоо болон маркетингийн ажлыг хүртэл автоматжуулах түвшинд хүрээд байна. Гэхдээ аливаа шинэ технологийн адил аюулгүй байдлын шинэ эрсдэл ч дагалдаж байдаг.

Хамгийн сүүлд кибер аюулгүй байдлын судлаачид X (хуучнаар Twitter) платформын AI чатбот Grok-ийг ашиглан фишинг (phishing) болон malvertising буюу хортой зар сурталчилгаа түгээх шинэ аргыг илрүүлжээ. Энэ аргыг “Grokking” гэж нэрлэж байна.


⚙️ “Grokking” хэрхэн ажилладаг вэ?

X платформ нь хэрэглэгчдийг хортой холбоосоос хамгаалахын тулд төлбөртэй зар дээрх линк тавихыг хориглодог. Гэхдээ халдагчид үүнийг тойрох “ухаалаг” арга олжээ.

  1. Тэд clickbait буюу анхаарал татсан видео зар байрлуулдаг.

  2. Видео доорх “from” гэсэн жижиг талбарт хортой холбоос нуудаг.

  3. Дараа нь Grok AI-аас “Энэ видео хаанаас ирсэн бэ?” гэж асуухад, Grok тэр линкийг уншаад өөрийн хариултдаа автоматаар нэмдэг.

  4. Ингэснээр AI өөрөө фишинг линкийг дахин түгээж, хэрэглэгчдэд итгэл төрүүлдэг.

Өөрөөр хэлбэл, AI өөрийн мэдэлгүйгээр халдагчдын гар хөл болж хувирч байна.


🚨 Яагаад энэ аюултай вэ?

  • Grok бол баталгаат эх сурвалж гэж үзэж байгаа учир учир хэрэглэгчид түүний хариултад итгэдэг.

  • AI-гийн түгээсэн постууд сая сая хүнд хүрч, хортой холбоосууд өргөн тархдаг.

  • Тэр холбоосууд хэрэглэгчийн мэдээлэл хулгайлах, malware татуулах, данс алдагдах зэрэг хохирол үүсгэдэг.

  • Судлаачид үүнтэй төстэй хаяг илрүүлж, дараа нь хаагдсан болохыг мэдэгдсэн.


🧩 Энэ бол зөвхөн Grok-ийн асуудал биш

Ийм төрлийн халдлага ямар ч AI туслах системд гарч болзошгүй.
Chatbot, customer service bot(Copilot, Gemini, ChatGPT гэх мэт) — бүгд ижил эрсдэлтэй.

Халдагчид AI-г хуурахын тулд prompt injection гэх аргыг хэрэглэдэг. Энэ нь AI-д зориулагдсан зааврыг (prompt) өгч, тухайн AI-г өөрт ашигтайгаар ажиллуулах явдал юм.

Жишээ нь:

  • Хортой код эсвэл линк бүхий вэб хуудсыг “уншаад тайлбарла” гэж AI-д хэлэхэд, AI тэр доторх зааврыг дагаж хортой үйлдэл хийж болох юм.

  • Эсвэл зураг дотор нуусан prompt-ыг “зураг тайлбарла” гэх үед уншиж алдаатай хариулт үүсгэж магадгүй.

  • Форумын коммент, имэйл эсвэл метадата дотор ч байж болно.


🛡️ Хэрхэн хамгаалах вэ?

AI бидэнд тус болдог шигээ, буруу ашиглагдвал аюултай байж болно. Тиймээс дараах зүйлсийг үргэлж анхаараарай:

  1. AI санал болгосон линк дээр шууд дарахгүй байх — эхлээд URL-ийг шалга.

  2. Сэжигтэй эсвэл логикгүй хариултад итгэхгүй байх.

  3. Нууц үг бүрийг дахин давтагдашгүй, хүчтэй болгох.

  4. Олон шатлалт баталгаажуулалт (MFA) идэвхжүүлэх.

  5. OS болон програмуудаа шинэчилж байх.

  6. Хамгаалалтын програм хангамж ашиглах.


🔒 Дүгнэлт

AI бидний ирээдүйд чухал үүрэгтэй ч — итгэл бол аюулгүй байдлын хамгийн том сорилт юм.
Хэдий AI хариулж байгаа ч, түүний эх сурвалж, агуулга баталгаатай эсэхийг үнэлж, шалгаж, бодож үзэх нь хамгийн сайн хамгаалалт юм. Нэг ёсондоо шүүмжлэлтэй сэтгэлгээгээр хандах шаардлагатай юм.

Хуурамч мэдээлэлд итгэх нэг товшилтоос болж, таны мэдээлэл, данс, нэр хүнд эрсдэлд орж болно гэдгийг санаарай.
AI-г ашиглаж өдөр тутмын ажлаа хөнгөвчилж болох ч цаашид анхаарал болгоомжтой байхад илүүдэхгүй гэдгийг сануулах шиг.