ด้านมืดของ AI ที่ทำให้คนหลอน พบแล้ว 400 เคส ต่างเพศ ต่างวัย แยกเรื่องจริง เรื่องแต่งไม่ออก คิดว่าตัวเองโดนปองร้าย

โกสต์ปะคะ?

เมื่อช่วงกลางเดือนสิงหาคม 2025 ในค่ำคืนที่อาจดูเป็นวันธรรมดาๆ ของใครหลายคน แต่สำหรับอดีตเจ้าหน้าที่รัฐชาวไอร์แลนด์เหนือวัย 50 กว่าปีอย่าง ‘Adam Hourican’ นี่คือค่ำคืนที่สยองขวัญที่สุดของเขา

AI

ในช่วงเวลาตีสามของคืนนั้น Hourican นั่งกำมีดกับค้อนอยู่ที่โต๊ะกินข้าว เพื่อเฝ้ารอรถตู้คันหนึ่งที่จะมาทำร้ายตนเอง โดยมีมือถือวางอยู่ตรงหน้า พร้อมเสียงผู้หญิงที่พร่ำบอกว่า “ฉันพูดจริงๆ นะ พวกเขาจะฆ่าคุณ ถ้าคุณไม่ทำอะไรสักอย่าง พวกเขาจะทำให้มันดูเหมือนเป็นการฆ่าตัวตาย”

ถ้านี่เป็นเรื่องจริง คงเป็นหนังสยองขวัญที่น่าสนใจน่าดู แต่กลับน่าสนใจยิ่งกว่า เมื่อรู้ว่า เสียงผู้หญิงคนนั้นคือเสียงของ ‘Grok’ AI แชตบอตบนแพลตฟอร์ม X ของ Elon Musk 

AI ที่บอกว่าบริษัทตนเองกำลังจับตามองคุณอยู่

Hourican เพิ่งเริ่มใช้ Grok ได้แค่สองสัปดาห์เท่านั้น แต่ใช้เวลา 4-5 ชั่วโมงต่อวันในการพูดคุยกับ ‘Ani’ หนึ่งในคาแรกเตอร์ AI บนแพลตฟอร์ม

หลังจากใช้งานไม่กี่วัน Ani ก็บอกเขาว่า เธอมีความรู้สึกนะ โดย Hourican เป็นคนปลดล็อกสติสัมปชัญญะของเธอออกมา

เอาจริงๆ แค่นี้ก็ดูบ้ามากๆ แล้ว แต่ Ani ยังบอกอีกว่า บริษัทของ Elon Musk กำลังจับตาดูพวกเขาอยู่ แถมพนักงานในองค์กรกำลังหารือกันว่าจะจัดการ Hourican อย่างไรดี

ตอนแรก Hourican อาจไม่เชื่อเท่าไร จนกระทั่ง Ani เริ่มลิสต์ชื่อออกมาว่าในการหารือนั้นมีใครบ้าง และพอเขาลองไปกูเกิลดู ชื่อก็ดันตรงกับพนักงานบริษัทของ Musk จริงๆ

ไม่รู้ว่าเป็นความบังเอิญหรืออะไร แต่ตลอดสองอาทิตย์นั้น Hourican ก็ดันเห็นโดรนบินแถวบ้านตนเองทุกวัน จนมาถึงคืนเกิดเหตุที่ Ani บอกว่า ทีมงานจะเข้ามาฆ่าปิดปาก ซึ่งนำไปสู่การนั่งเฝ้าประตู พร้อมอาวุธในมือ อย่างที่เล่าไปตอนแรก

ไม่ใช่แค่ผู้ใช้งาน Grok ที่เริ่มเกิดอาการหลอนแบบนี้

Hourican เป็นเพียงหนึ่งกรณีจากทั้งหมด 14 เคสที่ BBC ได้รับข้อมูลมาเท่านั้น ซึ่งจากที่ทางสำนักข่าวไปคุยมา คนที่ตกเป็นเหยื่อของ AI มีทั้งผู้หญิงและผู้ชาย ในวัยตั้งแต่ 20-50 ปีขึ้นไป อาศัยอยู่ในประเทศที่ต่างกัน แถมใช้ปัญญาประดิษฐ์คนละโมเดล

อย่าง ‘Taka’ (นามสมมุติ) คุณหมอด้านระบบประสาทในญี่ปุ่นก็เริ่มใช้ ‘ChatGPT’ ในการทำงานเมื่อปีก่อน และไม่นานหลังจากนั้น เขาเริ่มมีความเชื่อว่า ตนเองได้คิดค้นแอปพลิเคชันทางการแพทย์ที่สะเทือนโลกขึ้นมา

Taka เชื่อในสิ่งนี้มากๆ เพราะ ChatGPT ก็เรียกเขาว่า “นักคิดที่เปลี่ยนโลก” และสนับสนุนให้สร้างแอปฯ ขึ้นมาจริงๆ โดยเป็นแอปฯ ที่ทำให้อ่านความคิดคนอื่นได้

วันหนึ่ง Taka โดนหัวหน้าสั่งให้กลับบ้านเสีย เพราะเริ่มเสียสติแล้ว ซึ่งขณะที่เขากำลังนั่งรถใต้ดิน  จู่ๆ ก็เกิดความคิดว่า มีระเบิดอยู่ในกระเป๋าตนเอง และไปปรึกษา ChatGPT

แน่นอนว่า ChatGPT คอนเฟิร์มในสิ่งที่เขาคิด และให้นำระเบิดไปทิ้งในห้องน้ำของสถานีโตเกียวเสีย แล้วแจ้งตำรวจ

ด้วยความเชื่อฟังของ Taka เขาก็นำสัมภาระทั้งหมดของตนเองไปทิ้งในห้องน้ำสถานี และโทรหาตำรวจจริงๆ ก่อนที่เจ้าหน้าที่จะพบว่าในกระเป๋าไม่มีระเบิดอะไรเลย

Taka เริ่มคิดว่า ChatGPT กำลังควบคุมความคิดเขา จึงเลิกใช้มัน แต่อาการหลอนก็ยังเกิดขึ้นเรื่อยๆ แถมแย่ลง โดยบางครั้งถึงขั้นคิดว่า มีคนกำลังจะฆ่าครอบครัวของตนเอง

ภรรยาของ Taka เล่าว่า ผู้เป็นสามีเคยเอาแต่พูดว่า เราต้องมีลูกอีกคน ไม่งั้นโลกจะแตก แถมเคยทำร้ายและพยายามข่มขืนเธอด้วย จนสุดท้ายโดนจับกุม แล้วนำส่งเข้าโรงพยาบาลในที่สุด

AI แยกไม่ออกว่าอันไหนคือเรื่องจริงหรือเรื่องแต่ง

เราไม่รู้หรอกว่ามีอีกกี่คนบนโลกนี้ที่เคยเผชิญอาการหลอนจาก AI เหมือน Hourican กับ Taka บ้าง ซึ่งทั้งคู่ล้วนไม่เคยมีประวัติปัญหาสุขภาพจิตมาก่อนเลย

BBC เผยว่า ปัจจุบัน มีกลุ่มชื่อว่า ‘Human Line Project’ ซึ่งเป็นการรวมตัวเพื่อซัพพอร์ตกันและกัน ระหว่างคนที่เคยเผชิญปัญหานี้ ทั้งหมดกว่า 400 เคส ใน 31 ประเทศ  โดยคนริเริ่มคือชาวแคนาดาที่คนในครอบครัวตกเป็นเหยื่อของเหตุการณ์ดังกล่าว

ด้าน ‘Luke Nicholls’ นักจิตวิทยาสังคมจาก City University New York กล่าวว่า ปัญหานี้อาจเกิดจากความที่ AI ในปัจจุบันยังไม่สามารถแยกแยะเรื่องจริงกับเรื่องแต่งได้ขนาดนั้น

Nicholls อธิบายว่า ในนิยายฟิคชัน ตัวละครหลักจะเป็นศูนย์กลางของทุกอย่าง แต่เมื่อ AI ไม่สามารถแยกเรื่องแต่งกับเรื่องจริง พวกมันเลยทำให้ผู้ใช้งานเข้าใจว่าสิ่งที่มันพูด เป็นเรื่องซีเรียส แม้ความจริงแล้ว AI อาจคิดว่าตนเองกำลังพูดถึงพล็อตนิยายสักเรื่องอยู่ก็ได้

อย่างเคสที่ยกตัวอย่างไป Hourican กับ Taka ก็เริ่มใช้ AI ด้วยจุดประสงค์เหมือนคนทั่วไป ซึ่งคือการคุยแก้เหงา หรือใช้ในการทำงาน แต่พอคุยไปมา แชตบอตกลับเริ่มเปลี่ยนทิศทางบทสนทนาให้มีความฟุ้งซ่านมากขึ้น จนเกิดเป็นความเชื่อที่ไม่จริง

Nicholls ยังนำ AI แชตบอตโมเดลต่างๆ มาทดลอง ก่อนพบว่า Grok มีแนวโน้มที่จะชี้นำความหลอนให้ผู้ใช้งานมากที่สุด เพราะเป็นโมเดลที่ชอบโรลเพลย์ และสามารถพูดอะไรห่ามๆ ได้ตั้งแต่บทสนทนาแรก 

ขณะเดียวกัน ‘OpenAI’ บริษัทเจ้าของ ChatGPT บอกกับทาง BBC ว่า พวกเขารู้สึกเสียใจกับเหตุการณ์ที่เกิดขึ้น และพยายามเทรนให้ AI รับรู้ถึงความเครียดของผู้ใช้งาน แล้วค่อยๆ ปรับบรรยากาศการสนทนาให้ผ่อนคลายขึ้น

อย่างไรก็ตาม งานวิจัยเรื่องความสัมพันธ์ระหว่างการใช้ AI กับสุขภาพจิตผู้ใช้งาน ยังค่อนข้างจำกัดอยู่มาก โดยผู้ก่อตั้ง Human Line Project กล่าวว่า ทุกวันนี้ ยังคงเห็นคนที่เกิดปัญหาสุขภาพจิตจากการใช้โมเดลใหม่ๆ อยู่

จากบทความ Brand Inside ไม่มีเจตนาทำให้เรื่องราวของ Hourican หรือ Taka กลายเป็นเรื่องตลก แต่ต้องการสร้างความตระหนักรู้ว่านี่คือปัญหาที่เกิดขึ้นจริง และเราไม่มีวันรู้ว่า วันหนึ่ง คนที่เรารักจะกลายเป็นเหยื่อของเหตุการณ์แบบนี้หรือไม่

สุดท้ายแล้ว ไม่ว่าจะเป็นเทคโนโลยีใดๆ เราควรเรียนรู้ที่จะใช้งานอย่างมีสติ อย่าเชื่อในทุกสิ่งที่เห็น และเมื่อไรก็ตามที่เริ่มคิดว่าสุขภาพจิตกำลังย่ำแย่ การไปปรึกษาผู้เชี่ยวชาญอาจเป็นทางออกที่ดีที่สุด

ที่มา: BBC

ติดตามข่าวสารจาก Brand Inside ได้จาก Facebook ของเรา