นักวิจัยสร้างระบบ AI เพื่อต่อกรกับข่าวปลอมที่ถูกเขียนขึ้นโดย AI ด้วยกันเอง

Admin/ สิงหาคม 2, 2019/ IT UPDATE/ 0 comments

โลกโซเชียลมีเดียทุกวันนี้มีข่าวปลอมถูกเขียนขึ้นมามากมาย ทั้งบน Facebook และ Twitter ความน่ากลัวของข่าวปลอมคือมันแพร่กระจายได้ไวมาก ซึ่งข่าวปลอมส่วนมากถูกเขียนขึ้นโดยฝีมือมนุษย์ แต่ก็มีบางส่วนที่ถูกเขียนขึ้นโดย AI และมีแนวโน้มในอนาคต AI จะสามารถเขียนข่าวปลอมได้แนบเนียนมากขึ้น จนมนุษย์แทบจะแยกไม่ออกได้ว่าอันไหนมาจากฝีมือ AI หรือฝีมือมนุษย์ด้วยกันเอง ยกตัวอย่างเช่น โมเดล AI ที่ชื่อ GPT–2 จาก OpenAI มันฉลาดจนเขียนข่าวปลอมที่อ่านแล้วยังคิดว่าเป็นข่าวจริง เป็นต้น ถ้าถึงตอนที่สายตามนุษย์แยกไม่ออกแล้วจะเป็นอย่างไร?

เพื่อเตรียมตัวตั้งแต่เนิ่นๆ นักวิจัยจากมหาวิทยาลัย Harvard และศูนย์วิจัย MIT-IBM Watson AI Lab จึงได้ร่วมกันสร้างระบบสมองกล AI ที่สามารถต่อกรกับข่าวปลอมที่ถูกเขียนโดย AI ด้วยกันเองได้” โดยอาศัยการตรวจจับคำศัพท์และนำมาวิเคราะห์

โดยระบบ AI นี้ ถูกเรียกว่า GLTR (Giant Language Model Test Room) มันถูกสร้างขึ้นมาโดยเฉพาะ เพื่อใช้ตรวจจับรูปแบบการเขียนและใช้คำศัพท์ในบทความ (Text Patterns) แล้วนำไปวิเคราะห์พร้อมกับเก็บสถิติที่ตรวจพบ และแสดงผลออกมาให้เห็นในรูปแบบการไฮไลท์คำศัพท์

นักวิจัยสร้างสมองกล AI ไว้ตรวจจับข่าวปลอมที่เขียนโดย AI ด้วยกันเอง

การไฮไลท์คำศัพท์จะแบ่งออกเป็น 3 ระดับคือ ไฮไลท์สีเขียวเป็นคำศัพท์ที่พบบ่อย ,สีเหลืองและสีแดงพบได้ปานกลางและน้อย สุดท้ายสีม่วงเป็นคำที่พบน้อยมาก

การตรวจจับข่าวปลอมว่าถูกเขียนขึ้นโดย AI หรือไม่ ทำได้ด้วยการดูผลลัพธ์ โดยบทความที่ AI เขียนขึ้น เนื้อหาในบทความอาจจะมีความไม่เชื่อมโยงกัน (เป็นกลุ่มเป็นก้อน) และมีไฮไลท์สีเขียวและเหลืองเป็นส่วนใหญ่ (เพราะ AI มักเลือกใช้คำที่พบเจอบ่อยที่สุด จึงเดาได้ง่าย) กลับกันบทความที่มนุษย์เขียนขึ้น จะมีความซับซ้อนกว่า ทำให้มีการสลับสีระหว่างสีแดงและสีม่วงมากกว่า 

ถ้าหากว่าเอา GLTR มาใช้ในการตรวจข่าวปลอมบน Facebook หรือ Twitter น่าจะเวิร์คพอสมควร เพราะว่ามันสามารถทำให้มนุษย์เห็นรูปการเลือกใช้คำได้อย่างชัดเจนว่าเป็นมนุษย์หรือ AI แต่ถึงอย่างนั้น GLTR ก็ยังไม่สามารถตรวจจับได้แบบ 100% ยังต้องอาศัยการตัดสินใจจากมนุษย์อีกที

โดยตัว GLTR ที่ว่านี้ทางนักวิจัยเปิดให้เข้าไปใช้ฟรีด้วย ที่เว็บไซต์นี้เลย http://gltr.io/dist/index.html
ที่มา : www.cnet.com , www.avanade.com

Share this Post

Leave a Comment

อีเมลของคุณจะไม่แสดงให้คนอื่นเห็น ช่องข้อมูลจำเป็นถูกทำเครื่องหมาย *

*
*