ต้นปีของคริสต์ศักราช 2025 อาชญากรไซเบอร์รายหนึ่งได้ก่อแผนฉ้อโกงด้วย Deepfake ( Deepfake คือ เทคโนโลยีที่ใช้ปัญญาประดิษฐ์ (Ai) ) ในการสร้างหรือแก้ไขวิดีโอและภาพให้ดูเหมือนจริง โดยเล็งเป้าไปยัง User YouTube พวกเขาส่งอีเมลหลอกผู้ใช้ทาง Youtube ว่าเป็นซีอีโอ นีล โมฮัน พร้อมกับวิดีโอที่สร้างด้วย Ai ( Deepfake ) ซึ่งเปลี่ยนแปลงประกาศนโยบายการจ่ายค่าตอบแทนใหม่ของทางบริษัท YouTube อย่างเป็นเท็จ แต่ถึงแบบนั้นก็ยังมีผู้ใช้ที่หลงเชื่อและตอบกลับอีเมลเหล่านี้ เสี่ยงที่จะสูญเสียบัญชีและทรัพย์สินทางการเงิน เหตุการณ์นี้สะท้อนให้เห็นถึงการแข่งขันทางเทคโนโลยีด้านความมั่นคง โดย Ai กลายเป็นทั้งอาวุธทรงพลังของผู้โจมตี และเป็นโล่ที่แข็งแรงของผู้ตั้งรับ ในขณะที่เทคโนโลยี Ai ก้าวหน้าอย่างต่อเนื่อง มันช่วยให้อาชญากรไซเบอร์สร้างการโจมตีที่น่าเชื่อถือมากขึ้น เช่น Phishing , Deepfake Malware ในทางกลับกัน ผู้เชี่ยวชาญด้านความปลอดภัยไซเบอร์ก็กำลังใช้ Ai เพื่อตรวจจับและตอบโต้ภัยคุกคามแบบเรียลไทม์ คำถามสำคัญคือ: Ai ปะทะ Aiสมรภูมิระหว่างอาชญากรรมไซเบอร์ ใครกำลังได้เปรียบในสงครามครั้งนี้?
การเพิ่มขึ้นของภัยคุกคามและอาชญากรรมไซเบอร์
ในปี 2025 อาชญากรไซเบอร์หันมาใช้ AI เพื่อโจมตีอย่างอัตโนมัติและปรับเปลี่ยนได้อย่างชาญฉลาด ตัวอย่างคือมัลแวร์ประเภท Polymorphic ซึ่งสามารถเปลี่ยนโค้ดของตนเองได้ตลอดเวลาเพื่อหลีกเลี่ยงการตรวจจับ
ตัวอย่างหนึ่งคือ “BlackMamba” ซึ่งใช้ Generative AI ปรับเปลี่ยนโค้ดของตนระหว่างการทำงาน ทำให้แต่ละเวอร์ชันของมัลแวร์ไม่เหมือนกัน จึงยากต่อการตรวจจับด้วยระบบป้องกันแบบเดิม
นอกจากนี้ AI ยังถูกใช้สร้างอีเมลฟิชชิงแบบเจาะจงตัวบุคคล และเทคโนโลยีจำลองเสียง เช่น กรณี CEO ในอังกฤษถูกหลอกให้โอนเงิน 243,000 ดอลลาร์ หลังจากรับสายที่ใช้เสียงปลอมของเจ้านาย
แนวโน้มของ “Malware-as-a-Service” (MaaS) ก็ทำให้การก่ออาชญากรรมไซเบอร์กลายเป็นเรื่องง่ายยิ่งขึ้น แฮ็กเกอร์สมัครเล่นก็สามารถเข้าถึงเครื่องมือโจมตีขั้นสูงได้การเปลี่ยนจากการโจมตีแบบแมนนวลสู่การโจมตีอัตโนมัติแบบเต็มรูปแบบ ทำให้ธุรกิจต้องเร่งปรับใช้ระบบป้องกันที่ขับเคลื่อนด้วย Ai ปะทะ Aiอย่างเร่งด่วน
การโต้กลับของฝั่งป้องกัน: AI สู้กลับอย่างไร
เพื่อรับมือกับภัยคุกคามไซเบอร์ที่ซับซ้อนมากขึ้น องค์กรต่าง ๆ เริ่มหันมาใช้ AI เพื่อเสริมความแข็งแกร่งด้านความปลอดภัยไซเบอร์
หนึ่งในวิธีหลักคือการ ตรวจจับความผิดปกติแบบเรียลไทม์ผ่านการวิเคราะห์พฤติกรรม โดยระบบจะเรียนรู้พฤติกรรมปกติของผู้ใช้และระบบ และหากเกิดความเบี่ยงเบน ก็จะสามารถตอบสนองได้ทันที
นอกจากนี้ยังมี ระบบตอบสนองอัตโนมัติ ที่สามารถแยกอุปกรณ์ที่ถูกบุกรุกออกทันที เช่น Microsoft Security Copilot ใช้เอเจนต์ AI จัดการกับปริมาณงานด้านความปลอดภัยอย่างอัตโนมัติ และจัดลำดับความสำคัญของเหตุการณ์
AI ยังช่วยลดความเหนื่อยล้าของนักวิเคราะห์ในศูนย์ SOC โดยการกรองแจ้งเตือนผิด ๆ และช่วยให้นักวิเคราะห์มุ่งเน้นไปที่ภัยคุกคามจริง เช่น Microsoft Task Optimizer Agent ที่ช่วยทำนายและจัดลำดับเหตุการณ์สำคัญ
อีกหนึ่งกลยุทธ์เชิงรุกคือ AI Red Teaming — การจำลองการโจมตีด้วย AI เพื่อหาช่องโหว่ก่อนที่แฮ็กเกอร์ตัวจริงจะพบ
องค์กรที่ใช้ AI แบบครบวงจร ไม่เพียงรับมือกับภัยคุกคามในปัจจุบัน แต่ยังเตรียมพร้อมสำหรับภัยในอนาคตอย่างมีประสิทธิภาพ
ดาบและโล่: เมื่อ AI เป็นทั้งอาวุธและเครื่องป้องกัน
กรณีศึกษาสองเหตุการณ์ต่อไปนี้แสดงให้เห็นว่า ความพร้อมและความยืดหยุ่นของ AI เป็นปัจจัยสำคัญในการป้องกันภัยไซเบอร์:
กรณีศึกษา 1: สถาบันการเงินป้องกัน Ransomware ด้วย AI
สถาบันการเงินแห่งหนึ่งถูกโจมตีด้วย Ransomware จากบอทที่ขับเคลื่อนด้วย AI แต่ระบบตรวจจับแบบเรียลไทม์สามารถระบุและลบภัยคุกคามได้ภายในไม่กี่วินาที ป้องกันไม่ให้ข้อมูลถูกเข้ารหัส
กรณีศึกษา 2: องค์กรขนาดใหญ่ตกเป็นเหยื่อ Deepfake Phishing
องค์กรข้ามชาติถูกโจมตีด้วยอีเมลปลอมที่สร้างจาก Generative AI ระบบรักษาความปลอดภัยของบริษัทไม่สามารถรับมือกับวิธีการใหม่นี้ ทำให้พนักงานเปิดเผยข้อมูลสำคัญโดยไม่รู้ตัว เกิดการรั่วไหลของข้อมูลและความเสียหายต่อชื่อเสียง
สองกรณีนี้ตอกย้ำว่า AI ที่ไม่ทันสมัย หรือไม่มีการฝึกฝนอย่างต่อเนื่อง จะกลายเป็นจุดอ่อนสำคัญ
สนามรบใหม่: แนวโน้มในอนาคตของสงคราม AI
- การสร้างภัยคุกคามอัตโนมัติด้วย LLMs: แฮ็กเกอร์ใช้โมเดลภาษาใหญ่ (Large Language Models) เพื่อสร้างภัยคุกคามใหม่แบบรวดเร็วและยืดหยุ่น
- ตัวตนปลอมที่สร้างจาก AI: ใช้สร้างบุคคลปลอมที่สมจริง ทั้งภาพและประวัติ เพื่อแฝงตัวเข้าองค์กร
- AI ผู้คุ้มกันส่วนบุคคล (Personal AI Bodyguards): ระบบป้องกันที่ปรับให้เหมาะกับผู้ใช้แต่ละคน ตรวจจับและตอบโต้ภัยแบบเฉพาะตัว
- กับดัก AI หรือ “Honeypot 2.0”: ระบบหลอกล่อผู้โจมตีด้วยทรัพย์สินปลอมแบบอัตโนมัติ เพื่อเก็บข้อมูลและวิเคราะห์วิธีการโจมตี
องค์กรควร :
- ลงทุนในฐานข้อมูล AI ที่ครอบคลุม: เพื่อให้ระบบสามารถตรวจจับภัยคุกคามใหม่ ๆ ได้
- ทดสอบระบบด้วยการจำลอง AI vs. AI: เพื่อค้นหาช่องโหว่และเตรียมพร้อม
- คงไว้ซึ่งการควบคุมโดยมนุษย์: AI ควรเสริมศักยภาพมนุษย์ ไม่ใช่แทนที่
- ร่วมมือข้ามอุตสาหกรรม: เพื่อแบ่งปันข้อมูลภัยคุกคามและกลยุทธ์รับมือ
https://thecompliancedigest.com/ai-vs-ai-the-battle-between-security-and-cybercrime-in-2025
