อีลอน มัสก์ สั่งถอดฟีเจอร์เจนภาพหวิวใน Grok AI ออกแล้ว

Grok Nsfw Removal Policy Update

มีรายงานว่าผู้บริหารของ xAI โดยเฉพาะอีลอน มัสก์ ได้สั่งถอดฟีเจอร์การสร้างภาพลักษณะ “วาบหวิวหรือกึ่งเรต” จากระบบปัญญาประดิษฐ์ Grok AI ซึ่งเป็นโมเดลภาพและข้อความของบริษัท โดยให้เหตุผลว่าฟีเจอร์ดังกล่าวอาจขัดกับนโยบายความปลอดภัยของแพลตฟอร์มและทิศทางในระยะยาวของธุรกิจ AI การตัดสินใจนี้เกิดขึ้นท่ามกลางกระแสถกเถียงในวงการเทคเกี่ยวกับเส้นแบ่งของ “ความสร้างสรรค์ vs ความรับผิดชอบ” ของระบบ Generative AI

Grok AI ถูกเปิดตัวในฐานะโมเดลที่มีบุคลิกและแนวตอบโต้ที่ตรงไปตรงมา พูดได้มากกว่าระบบผู้ช่วยแบบดั้งเดิม และรองรับการสร้างภาพผ่านโมเดล Generative Image ระบบนี้เป็นส่วนหนึ่งของกลยุทธ์ xAI ที่ต้องการสร้างโมเดลที่มีเอกลักษณ์และแตกต่างจากคู่แข่งอย่าง ChatGPT, Gemini และ Claude

ในช่วงเปิดใช้งานแรกมีผู้ใช้งานบางส่วนทดลองให้ระบบสร้างภาพที่มีเนื้อหาเชิงล่อแหลมหรือ “หวิว” ซึ่งแม้จะไม่จัดอยู่ในหมวดลามกชัดเจน แต่ถูกมองว่าเป็น NSFW (Not Safe For Work) หรือเนื้อหาที่ไม่เหมาะในบริบทสาธารณะ ส่งผลให้เกิดกระแสถกเถียงบนแพลตฟอร์มว่าระบบควรอนุญาตหรือจำกัดการสร้างภาพประเภทดังกล่าวเพียงใด

รายละเอียดเชิงเทคนิค

การถอดฟีเจอร์ครั้งนี้ไม่ได้หมายถึงการปิดการสร้างภาพทั้งหมดของ Grok แต่เป็นการปิด “ขอบเขตเนื้อหา” หนึ่งในระบบ Safety Filter ซึ่งเป็นโมดูลที่มีหน้าที่กำหนดว่าโมเดลจะสร้างอะไรได้ และไม่ได้ โดยมีองค์ประกอบหลักดังนี้:

1. Content Filter Layer

ระบบ AI สร้างภาพสมัยใหม่มักมี Content Filter อยู่สองชั้น คือ

  • Pre-Generation Filter: ตรวจคำสั่งก่อนโมเดลสร้างภาพ
  • Post-Generation Filter: ตรวจภาพหลังโมเดลสร้างแล้ว

การถอดฟีเจอร์หวิวคาดว่าเกี่ยวข้องกับทั้งสองชั้น เพื่อป้องกันการหลุดรอดของภาพที่ไม่ตรงนโยบาย

2. Prompt Classification

ข้อมูลระบุว่ามีการปรับตัวจำแนกคำสั่ง (Prompt Classifier) ให้สามารถตรวจจับคำบรรยายที่เสี่ยงไปทางกึ่งทางเพศหรือวาบหวิวได้แม้จะไม่ได้ระบุคำชัดเจน เช่น คำเชิงบรรยายรูปร่างหรือชุดแต่งกาย การเปลี่ยนแปลงนี้ช่วยลดช่องว่างระหว่าง “ลามกชัดเจน” กับ “ไม่ลามกแต่ชวนคิด”

3. Policy Tuning

ในระบบ Generative AI คำว่า Policy Tuning คือการกำหนดท่าทีของโมเดลผ่าน Soft Constraint เช่น การปฏิเสธคำสั่งอย่างสุภาพ การสรุปผลข้อมูลแทนการสร้างภาพ หรือเสนอคำแนะนำอื่นแทนการปฏิบัติตามคำสั่งเดิม

4. Safety vs Creativity Trade-off

การปิดฟีเจอร์ลักษณะนี้สะท้อนโจทย์พื้นฐานของวงการ: หากกรองมากเกินไป ผู้ใช้จะรู้สึกว่าระบบ “ไม่สร้างสรรค์” แต่ถ้ากรองน้อยเกินไป ระบบจะสร้างความเสี่ยงต่อแบรนด์และข้อกฎหมาย ทั้งสองด้านเป็นโจทย์ที่ผู้พัฒนา AI ระดับแพลตฟอร์มต้องเลือกสมดุล

ความเห็นผู้เชี่ยวชาญ

ผู้เชี่ยวชาญด้านกฎหมายเทคโนโลยีมองว่าการถอดฟีเจอร์ครั้งนี้เป็นการเลือกฝั่งระหว่างธุรกิจและความเสี่ยง โดยเฉพาะในยุคที่รัฐบาลและหน่วยงานกำกับทั่วโลกเริ่มเข้ามาดูแลความปลอดภัยด้าน AI เช่น เนื้อหาไม่เหมาะสม การปลอมแปลงภาพบุคคล (Deepfake) และสิทธิภาพลักษณ์ (Portrait Rights)

นักวิเคราะห์ด้านตลาด AI มองอีกมุมว่า การให้ AI สร้างภาพวาบหวิวแม้ไม่เป็นลามก อาจทำให้เกิด “แรงดันเชิงตลาด” ที่ไม่ราบรื่น เช่น

  • ผู้ให้บริการ Cloud อาจปฏิเสธโฮสต์
  • แพลตฟอร์ม App Store อาจเข้มงวดมากขึ้น
  • นักลงทุนลดความมั่นใจต่อธุรกิจระดับองค์กร
  • แบรนด์ไม่ต้องการถูกผูกกับเนื้อหาที่ไม่เป็นกลาง

ขณะที่นักวิชาการด้านข้อมูลระบุว่า การตัดฟีเจอร์เชิงทางเพศใน Generative AI เป็นแนวโน้มที่เพิ่มขึ้น เพราะเป็นหมวดที่นำไปสู่ Deepfake เชิงบุคคลมากที่สุด เช่น การนำภาพบุคคลจริงมาแต่งเติมให้เป็นภาพเชิงล่อแหลม ซึ่งมีความเสี่ยงทางกฎหมายสูงและมีผลต่อสิทธิมนุษยชนในมิติข้อมูลส่วนบุคคล

ผลกระทบ

การเปลี่ยนแปลงนโยบายครั้งนี้อาจมีผลต่อหลายด้าน ได้แก่:

1. ผู้ใช้งาน
กลุ่มผู้ใช้ที่ให้ความสำคัญกับการสร้างสรรค์ภาพหรือเนื้อหาแบบเสี่ยงอาจหันไปใช้แพลตฟอร์มอื่นที่เปิดกว้างกว่า ในขณะที่กลุ่มผู้ใช้งานเชิงวิชาชีพ เช่น นักการตลาดหรือองค์กรอาจรู้สึกมั่นใจมากขึ้น

2. ภาพลักษณ์แบรนด์
การลบภาพเชิงวาบหวิวช่วยสร้างภาพลักษณ์ความรับผิดชอบของ xAI ในการสร้าง AI สำหรับผู้ใช้งานจริง ไม่ใช่แค่เพื่อความสนุกหรือการทดลอง

3. นักพัฒนา AI รายอื่น
การเคลื่อนครั้งนี้เป็นสัญญาณให้ผู้ให้บริการ Gen-AI รายอื่นต้องทบทวน Safety Policy ของตัวเอง เช่น โมเดลภาพและโมเดลข้อความที่รองรับ Prompt ก้ำกึ่ง

4. อุตสาหกรรม Content
วงการสื่อดิจิทัลที่ผูกกับ Generative AI อาจได้รับผลกระทบ โดยเฉพาะสายศิลป์และการครีเอทีฟ เพราะการจำกัดเนื้อหาในหมวด “กึ่งเรต” เป็นเส้นแบ่งที่ไม่ชัดเจนว่าควรยืนอยู่ตรงไหนของความสร้างสรรค์

ทิศทางต่อไป

มีรายงานว่านโยบายของ xAI อาจจะปรับเป็นระบบ Permission-Based หรือ Tier-Based ในอนาคต เช่น ให้ผู้ใช้บางระดับเข้าถึงฟีเจอร์ได้ผ่านการยืนยันตัวตน หรือเฉพาะกลุ่มมืออาชีพที่มีการใช้งานทางอุตสาหกรรมเพื่อป้องกันการใช้ผิดวัตถุประสงค์

นอกจากนี้ วงการคาดว่า xAI อาจเน้นการพัฒนาโมเดลสำหรับ Enterprise มากขึ้น และการควบคุมเนื้อหานี้สอดคล้องกับเทรนด์ดังกล่าว เพราะตลาดระดับองค์กรให้ความสำคัญกับ Compliance และ Brand Safety มากกว่าครีเอทีฟที่ไร้ข้อจำกัด

สรุป

การสั่งถอดฟีเจอร์เจนภาพวาบหวิวใน Grok AI แสดงให้เห็นว่าธุรกิจ AI เริ่มเข้าสู่ช่วงที่ต้องให้ความสำคัญกับความรับผิดชอบ สถาปัตยกรรมความปลอดภัย และความเสี่ยงด้านกฎหมายมากกว่าการเร่งความสามารถเชิงสร้างสรรค์เพียงอย่างเดียว โดยเฉพาะเมื่อแพลตฟอร์มต้องขยายสู่การใช้งานระดับองค์กรและผู้ใช้จำนวนมาก

คำถามที่ยังต้องติดตามคือ ในยุคที่ Generative AI ต้องบาลานซ์ระหว่าง “การแสดงออกอย่างสร้างสรรค์” กับ “ความรับผิดชอบทางสังคม” ตลาดจะเดินไปทางใด และผู้ใช้งานจะให้น้ำหนักกับด้านไหนมากกว่ากัน?

Report Broken Link×