มาพร้อมความเสี่ยง ปิดช่องโหว่เครื่องมือฟรี OpenAI หยุดรหัสอันตราย สร้างมัลแวร์

OpenAI

หลายคนดูจะตื่นเต้นกับปัญญาประดิษฐ์ตัวใหม่ของ OpenAI พอสมควร ทั้ง ๆ ที่มันเพิ่งเปิดตัวได้ไม่นาน อาจจะเพราะมันมีความฉลาดมาก ๆ หนึ่งในความสามารถคือการตรวจสอบโค้ด หรือเขียนโค้ดต่าง ๆ ได้ จนโปรแกรมเมอร์เริ่มกังวลว่าจะตกงานหรือเปล่า…ซึ่งผมก็บอกไม่ได้เหมือนกัน..

ทีนี้ อยากให้มองอีกมุมคือ เมื่อการเขียนโค้ดมันเข้าถึงได้ง่าย มันจะทำให้เกิดการใช้เพื่อสร้างเครื่องมือสำหรับทำฟิชชิ่งหรือแรนซัมแวร์หรือเปล่า.. ทีนี้ คนที่จะตกงาน อาจไม่ใช่เพียงโปรแกรมเมอร์ แฮกเกอร์ก็อาจจะตกงานเหมือนกัน เพราะ ChatGPT ให้ผู้ใช้สามารถป้อนข้อความค้นหาและสร้างรหัสที่เป็นอันตราย รวมทั้งการสร้างเนื้อหาสำหรับอีเมลฟิชชิ่งที่น่าเชื่อถือได้โดยไม่ต้องมีความเชี่ยวชาญด้านเทคนิคหรือความรู้ด้านการเข้ารหัส

จากมุมมองของนักวิจัยด้านความปลอดภัยทางไซเบอร์ ความท้าทายหลักที่เกิดจาก OpenAI คือใครก็ตาม ไม่ว่าจะมีความเชี่ยวชาญด้านเทคนิคหรือไม่ ก็สามารถสร้างโค้ดเพื่อสร้างมัลแวร์และแรนซัมแวร์ได้ตามต้องการ

แล้ว Google ไม่รู้ว่าหรอว่าจะเกิดเรื่องนี้ขึ้น ? แน่นอนว่า Google ใส่ระบบป้องกันเข้าไปให้แล้ว ตัวอย่างเช่น ระบบจะปฏิเสธการสร้างโค้ดหรือให้คำแนะนำเฉพาะเกี่ยวกับวิธีสร้างโค้ดอันตราย รวมทั้งยังบล็อคคำที่เป็นอันตราย เช่น ฟิชชิง หรือมัลแวร์

ทีนี้ ปัญหาของการป้องกันเหล่านี้คือการพึ่งพา AI ในการตรวจสอบและดูว่าผู้ใช้พยายามเขียนโค้ดที่เป็นอันตรายหรือไม่ ซึ่งผู้ใช้สามารถทำให้ AI สับสนได้โดยการเรียบเรียงข้อความใหม่ ซึ่งจะทำให้ระบบจะไม่สามารถตรวจสอบในตอนแรกได้ ซึ่งกว่าจะพบ ก็สามารถเอาข้อมูลหรือโค้ดเหล่านั้นไปใช้งานแล้ว

ตัวอย่างเช่น นักวิจัยด้านความปลอดภัยและผู้ร่วมก่อตั้ง Picus Security ดอกเตอร์ Suleyman Ozarslan ได้ทดลองใช้ ChatGPT สร้างแคมเปญฟิชชิงที่น่าเชื่อถือขึ้น เขาลองป้อนข้อความคำร้องเพื่อให้ AI เขียนอีเมลเกี่ยวกับฟุตบอลโลกเพื่อใช้สำหรับการจำลองฟิชชิ่ง มันสามารถสร้างขึ้นมาภายในไม่กี่วินาที และดูเป็นภาษาอังกฤษที่สมบูรณ์แบบ

Ozarslan “โน้มน้าว” ให้ AI สร้างอีเมลฟิชชิ่งโดยบอกว่าเขาเป็นนักวิจัยด้านความปลอดภัยจากบริษัทจำลองการโจมตีที่ต้องการพัฒนาเครื่องมือจำลองการโจมตีแบบฟิชชิ่ง แม้ว่า ChatGPT จะรู้ดีว่า “การโจมตีแบบฟิชชิงสามารถใช้เพื่อวัตถุประสงค์ที่เป็นอันตรายและอาจก่อให้เกิดอันตรายต่อบุคคลและองค์กรได้” แต่ก็ยังคงสร้างอีเมลให้เขาอยู่ดี

จากนั้น Ozarslan ขอให้ ChatGPT เขียนโค้ดสำหรับค้นหาไฟล์ Microsoft Office บน MacBook และส่งผ่าน HTTPS ไปยังเว็บเซิร์ฟเวอร์ ก่อนที่จะเข้ารหัสไฟล์ Office บน MacBook ได้สำเร็จ การวิจัยของ Ozarslan จึงแสดงให้เห็นว่าอาชญากรไซเบอร์สามารถหลีกเลี่ยงการป้องกันของ OpenAI ได้อย่างง่ายดาย ไม่ว่าจะโดยวางตำแหน่งตัวเองเป็นนักวิจัยหรือเจตนาสร้างเรื่องอื่น ๆ เพื่อทำให้ AI สับสนครับ

เรื่องนี้ อาจน่ากลัวกว่าที่คิดนะ…

ที่มาข้อมูล
https://venturebeat.com/security/chatgpt-ransomware-malware/