ทุกครั้งที่คุณไถ Reel-Ig หรือ Tiktok สิ่งแรกที่คุณทำเมื่อเลื่อนผ่านอุบัติเหตุน่าหวาดเสียวอาจเป็นการขยับนิ้วไปที่ช่องคอมเมนต์ แล้วกวาดสายตาหาความเห็นของใครก็ได้ที่มีคำว่า ‘Ai’ ปรากฏอยู่ หรือไม่ก็เป็นคุณเสียเองที่ประกาศให้ผู้อื่นรู้ว่าคลิปนี้ไม่ใช่ของจริง “มันปลอม มันถูกเฟกขึ้นมา”— ซึ่งสถานการณ์ดังกล่าวเป็นเพียงตัวอย่างของการหลอกลวงที่จิ๊บจ๊อยที่สุด เพราะนี่คือยุคที่พินอคคิโอไม่จำเป็นต้องจมูกยาวอีกต่อไปถ้าเขาใช้ ‘เอไอ’ เป็น
บทบาทของ ‘เอไอ’ ในการปรุงแต่งเรื่องโกหก
แม้ ‘Deepfake’ จะเป็นชื่อเรียกของข้อมูลเท็จที่ถูกรังสรรค์ด้วย ‘Ai’ หรือ ‘ปัญญาประดิษฐ์’ ซึ่งเพิ่งจะมามีบทบาทและทะยานสู่จุดสูงสุดของห่วงโซ่แห่งการหลอกลวงได้ไม่นาน แต่มันก็ถูกพัฒนาบนรากฐานของแนวคิดในการบิดเบือนสื่อที่มีตัวตนอยู่ก่อนหน้า เพียงแต่ว่าความสมจริงของมันถูกยกระดับให้สูงขึ้นด้วยสิ่งที่เรียกว่า ‘เครือข่ายประสาทเทียม’ หรือ ‘Artificial Neural Networks’— เจ้าสิ่งนี้เป็นระบบที่จำลองการทำงานของประสาทมนุษย์ มันทำให้เกิด ‘การเรียนรู้เชิงลึก’ อันเป็นจุดขายหลักของเอไอ ซึ่งไม่ต้องสงสัยเลยว่าคำว่า ‘Deep’ จาก ‘Deep learning’ จะย้ายไปอยู่ที่ไหนหากการเรียนรู้ดังกล่าวถูกใช้งานเพื่อหลอกลวงผู้คน
“ดีปเฟกในฐานะเครื่องมือในการผลิตข้อมูลเท็จเป็นสิ่งที่น่ากังวลอย่ามาก แต่ฉันไม่สามารถพูดถึงความกังวลนี้ได้อย่างเต็มปาก หากไม่คำนึงถึงความรวดเร็วในการแพร่ข้อมูลทุกวันนี้” กล่าวโดย บาร์บารา มิลเลอร์ (Barbara Miller) รองผู้อำนวยการฝ่ายภัณฑารักษ์ของ ‘Museum of the Moving Image’— ผมรู้ว่าเธอไม่ใช่คนดัง แต่คำพูดเธอไม่ได้สะท้อนแค่ข้อเท็จจริงที่ว่าความเป็นโลกาภิวัตน์มีอิทธิพลต่อการสูบฉีดข้อมูลมากแค่ไหน แต่มันยังชี้ให้เห็นว่าสองสิ่งนี้… เมื่อถูกนำมาวางคู่กันมันสามารถลดระดับวิจารณญาณของผู้คนได้จริง
คำถามคือ— วิกฤตความเชื่อจะส่งผลอย่างไรในยุครุ่งโรจน์แห่งความหลอกลวง
ย่อหน้าแรกของบทความนี้ได้แง้มผลลัพธ์ของดีปเฟกที่ส่งผลต่อผู้คนเอาไว้อย่างพอสังเขป มันทำให้ความหวาดระแวงกลายเป็นหนึ่งในการตอบสนองหลักที่เกิดขึ้นเวลาเสพสื่อ มันอาจลดทอนความน่าเชื่อถือของความจริงด้วยการทำให้ใครสักคนมีข้ออ้างให้กับพฤติกรรมหรือรูปภาพบางอย่างของตนเองว่า “มันถูกปลอมแปลงขึ้นมา ใคร ๆ ก็ทำได้”— และในทางกลับกันมันก็พร้อมจะสร้างความเสียหายถ้าหากข้อมูลเท็จพวกนั้นถูกทำให้มีน้ำหนักมากขึ้น
ไม่ใช่แค่นั้น— เพราะดูเหมือนว่าอัลกอริทึมก็แทรกแซงเข้ามามีบทบาทในความรุ่งโรจน์ของดีปเฟกเช่นกัน อย่างที่ใครหลายคนรู้ดีว่าหนึ่งในความสามารถของมันคือการเรียนรู้และจดจำพฤติกรรมในการเสพสื่อของผู้ใช้ ไม่ว่าจะเป็น YouTube, TikTok, Instagram หรือ Google ซึ่งกระบวนการตรงนี้จะถูกใช้ในการคัดกรองข้อมูลเพื่อเลือกสรรแต่สิ่งที่ผู้ใช้ให้คุณค่า ดังนั้นถ้าใครสักคนเผลอให้คุณค่ากับสื่อปลอมที่ถูกผลิต ใครคนนั้นก็จะหลงอยู่ในวังวนแห่งความหลอกลวง ซึ่งจะตีกรอบให้กับการรับรู้และความเชื่อของผู้คนได้อย่างง่ายดาย
ทว่าทั้งหมดที่ว่ามาคือสิ่งที่เกิดขึ้นแค่เบื้องหน้า— แล้วอะไรคือสิ่งที่อยู่เบื้องหลัง
หลังฉากของการลวงหลอกยอดฮิต
การปรุงแต่งเรื่องโกหกที่น่าเชื่อถือผ่านสื่อออนไลน์ เคยเป็นเรื่องของคนที่สามารถให้คุณค่ากับเครื่องมือซึ่งต้องใช้เวลาอย่างมากในการรวบรวม และยังต้องใช้ความเชี่ยวชาญในระดับหนึ่งเพื่อยกระดับคุณภาพของความน่าเชื่อถือให้มากขึ้น แต่สิ่งนี้แทบไม่จำเป็นเมื่อมี ‘เครื่องมือสำเร็จรูป’ ที่ใคร ๆ ก็สามารถใช้งานได้เพียงแค่มีโทรศัพท์มือถือดี ๆ สักเครื่อง ลองจินตนาการถึงร้านสะดวกซื้อที่บนชั้นวางเรียงรายไปด้วยแอปพลิเคชันที่สามารถทำให้คุณโกหกได้เนียนขึ้นดูสิ— นั่นแหละที่กำลังหมายถึง
เครื่องมือ ‘เอไอ’ ที่ถูกใช้ในวงการ Deepfake
เริ่มจากตัวชูโรงอย่าง ‘Generative Adversarial Networks’ หรือ ‘GANs’— คอนเซปต์ของ GANs คือการเป็นเครือข่ายประสาทเทียมแบบแข่งขัน มันก็เหมือนกับการนำสมองสองอันมาอยู่ในห้องเดียวกัน สมองแรกพยายามสร้างสื่อปลอมให้สมจริงที่สุดไม่ว่าจะเป็น การโคลนเสียง หรือ การแปลงภาพ ในขณะที่อีกสมองถูกออกแบบให้เป็นคู่ปรับของสมองแรก เพราะหน้าที่ของมันคือการแยกแยะว่าอะไรจริงอะไรปลอม— ท้ายที่สุดแล้วผลลัพธ์ของมันคือการยกระดับให้ GANs สามารถเรียนรู้ข้อบกพร่องจากการห้ำหั่นกันระหว่างสองระบบนี้ นำไปสู่การสร้างสื่อปลอมที่มีความสมจริงมากขึ้น— แต่ GANs จะค่อนข้างไร้ประโยชน์เมื่อดีปเฟกที่อยากได้ ต้องอาศัยการสร้างข้อมูลใหม่โดยต่อยอดจากข้อมูลเดิมที่มีอยู่(และถูกบีบอัด) นั่นเป็นงานถนัดของ ‘Autoencoders’ (AEs) ซึ่งเป็นหัวใจสำคัญที่ขับเคลื่อนการมีตัวตนของซอร์ฟแวร์อย่าง ‘DeepFaceLab’ ให้โลดแล่นอยู่ในการทำศัลยกรรมออนไลน์— เพราะเจ้าสิ่งนี้คือดีปเฟกที่สามารถสลับใบหน้าได้อย่างกล่มกลืนและแนบเนียน ในเชิงสร้างสรรค์มันเคยถูกใช้งานโดยแฟนคลับของหนัง Star War เพื่อแก้ไขฉากที่ ‘Luke Skywalker’ ปรากฏตัวให้ดูดีและเป็นที่ยอมรับมากขึ้น แต่ในทิศทางที่เลวร้ายมันก็ถูกใช้เพื่อทำลายชื่อเสียงของใครหลายคน— เพราะคุณคงไม่อยากให้ข้อมูลใบหน้าของตัวเองถูกบีบอัดแล้วนำไปใส่ในคลิปเต้นระบำเปลื้องผ้าหรอกจริงไหม
ความเสียหายและการงัดข้อระหว่างความจริงกับความลวง
ขอบเขตความเสียหายและเหยื่อที่ถูกดีปเฟกเล่นงานไม่ได้ถูกจำกัดอยู่แค่ในแวดวงของคนดังหรือคนธรรมดาที่ดันคบเพื่อนนิสัยกวนตีนเท่านั้น ตั้งแต่ปี 2023— เครือข่ายปราบปรามอาชญากรรมทางการเงินของสหรัฐฯ (FinCEN) ได้พบว่ามีจำนวนรายงานธุรกรรมต้องสงสัยจากสถาบันการเงินเพิ่มขึ้น โดยมีการใช้ดีปเฟกในแผนการฉ้อโกงที่มุ่งเป้าโจมตีทั้งตัวสถาบันและกลุ่มลูกค้าจำนวนมาก แม้ทางเครือข่ายจะแก้เกมด้วยการออกประกาศเตือนในกลางปี 2024 เพื่อเน้นย้ำถึงภัยคุกคามที่กำลังลุกลาม แต่นั่นก็ดูเหมือนจะยังไม่เพียงพอเมื่อพิจารณาจากเหยื่อและปริมาณความเสียหายในปีเดียวกัน
ช่วงเดือนสิงหาคมของปีที่แล้ว— สื่อวิดีโอที่ใช้ ‘เอไอ’ ในการสร้างภาพปลอมของ ‘อีลอน มัสก์’ (Elon Musk) ถูกแพร่กระจายไปทั่วอินเทอร์เน็ต จนสร้างความเสียหายให้กับชายวัย 82— ‘สตีฟ โบแชมป์’ (Steve Beauchamp) ผู้ให้สัมภาษณ์กับ The New York Times ว่าเขาใช้เงินเกษียณทั้งหมดไปกับการลงทุนในโครงการลวงโลกครั้งนี้เป็นจำนวนถึง 690,000 ดอลลาร์สหรัฐ— เป็นจำนวนเงินที่เยอะมากว่าไหม แต่บริษัทวิศวกรรมสัญชาติอังกฤษอย่าง ‘Arup’ ขอเกทับด้วยความเสียหายมูลค่ากว่า 25 ล้านดอลลาร์สหรัฐ โดยคนร้ายใช้ดีปเฟกปลอมใบหน้าและเสียงของ ‘ประธานเจ้าหน้าที่ฝ่ายการเงิน’ หรือ ‘CFO’ และพนักงานคนอื่น ๆ ระหว่างการประชุมผ่านวิดีโอคอล ทำให้พนักงานผู้เคราะห์ร้ายเข้าใจว่าอยู่ในการประชุมกับผู้บริหารจริง ๆ และถูกหลอกให้โอนเงินในท้ายที่สุด อุบายเดียวกันนี้เริ่มถูกใช้ในบรรดาแก๊งคอลเซนเตอร์ที่พยายามดูดเงินเหยื่อโดยการปลอมตัวเป็นตำรวจ และยังสามารถสร้างความโกลาหลในชั้นศาลเมื่อ ‘หลักฐานดิจิทัล’ เริ่มไม่น่าเชื่อถือเสมอไป
‘เอไอ’ มีบทบาทอย่างไรในการงัดข้อกับดีปเฟก
สามารถพูดได้อย่างเต็มปากว่าแม้ ‘AI’ จะถูกเชิดชูในบทบาทตัวร้ายหน้าใหม่ของยุคสมัยแห่งการหลอกลวง แต่ก็เป็น ‘ผู้กอบกู้’ ที่ถูกออกแบบขึ้นมาเพื่อค้ำยันโครงสร้างของความเป็นจริงให้ยังคงหยัดยืนได้
อ้างอิงจากงานวิจัยที่ชื่อว่า ‘Exploiting Visual Artifacts to Expose Deepfakes’— ซึ่งถือเป็นหนึ่งในงานวิจัยรุ่นบุกเบิกที่ชี้ให้เห็นว่าในยุคแรกเริ่มของการทำดีปเฟกผ่านสื่อวิดีโอ ไม่ได้มีความสมจริงเสมอไป โดยจะสังเกตเห็นได้จาก ‘การไม่กระพริบตา’ หรือ ‘ความถี่ในการกระพริบตา’ ซึ่งไม่สอดคล้องกับพฤติกรรมโดยธรรมชาติของมนุษย์ และนอกจากนี้ยังมีการสอนให้ ‘เอไอ’ เรียนรู้จาก ‘เอไอ’ ด้วยกันเองผ่านการใช้ศูนย์ข้อมูลที่ประกอบไปด้วยวิดีโอปลอมและวิดีโอจริงจำนวนมาก อย่างไรก็ตาม ยังคงไม่มีหลักฐานที่บ่งบอกว่า ‘เอไอ’ สามารถรับมือกับดีปเฟกได้อย่าง 100% แม้ทุกวันนี้แพลตฟอร์มต่าง ๆ จะเริ่มพัฒนา ‘เอไอ’ ของตัวเองเพื่อสร้างประสิทธิภาพในการคัดกรองความลวงออกจากความจริงแล้วก็ตาม
ซึ่งแนวโน้มของความสำเร็จในการคลี่คลายปัญหา ขึ้นอยู่กับว่ามนุษย์จะพัฒนา ‘เอไอ’ มารับมือได้มากแค่ไหน ในขณะที่คู่ปรับอย่าง ‘ดีปเฟก’ ก็ไม่มีทีท่าว่าจะหยุดพัฒนาเช่นเดียวกัน— น่าตลกดีที่ทำเหมือนว่าสองสิ่งนี้เป็นขั้วตรงข้ามของกันและกัน ทั้ง ๆ ที่มันถูกคลอดออกมาจากเทคโนโลยีเดียวกัน
บทสรุป
การเรียบเรียงบทความนี้มันเหมือนกับการค่อย ๆ มองภาพของโลกที่ความก้าวหน้าถูกขับเคลื่อนอย่างรวดเร็ว จนให้กำเนิดทั้ง ‘เครื่องมือสุดร้ายกาจ’ และ ‘ระบบป้องกันสุดซับซ้อน’ เรากำลังอยู่ในโลกที่เอไอถูกใช้ในการลบเส้นแบ่งระหว่าง ‘ความจริง’ กับ ‘ความลวง’ ซึ่งสิ่งนี้ส่งผลกระทบต่อทุกสิ่งเป็นวงกว้าง นำมาสู่คำถามที่ว่ามนุษย์จะหมุนโลกให้ไล่ตามความเปลี่ยนแปลงอันแสนบ้าคลั่งนี้ได้อย่างไร— บทกฎหมายใหม่ของประเทศเดนมาร์กอาจเป็นหนึ่งในคำตอบของคำถามดังกล่าว พวกเขาเปลี่ยนใบหน้าให้กลายเป็นทรัพย์สินประจำตัว ซึ่งไม่ใช่แค่เรื่องของข้อมูลส่วนบุคคลหรือการยินยอม แต่ยังเป็นเรื่องของใส่ภาพลักษณ์ของคนนั้น ๆ เอาไว้ในการคุ้มครองของกฎหมายอีกด้วย ในขณะเดียวกันการไล่ตามเล่ห์กลของ ‘เอไอ’ ในรูปแบบที่คล้ายกันนี้ก็เกิดขึ้นในประเทศยักษ์ใหญ่อย่างสหรัฐอเมริกาเมื่อประธานาธิบดี ‘โดนัลด์ ทรัมป์’ (Donald Trump) เพิ่งจะลงนามในกฎหมาย “Take It Down Act” เพื่อปกป้องเหยื่อจากภาพลามกอนาจารที่ไม่ได้รับความยินยอมและเกิดจากดีปเฟก— การต่อสู้ระหว่างความจริงกับความลวงเพิ่งเริ่มต้น ความเป็นไปได้ที่ว่าในอนาคตมนุษย์จะแยกแยะไม่ออกว่าอะไรคือข้อมูลจริงอะไรคือข้อมูลเท็จ ไมได้เท่ากับ 0 เสียทีเดียว…
แหล่งค้นคว้า (References)
Deepfake statistics (2025): 25 new facts for CFOs—
https://www.eftsure.com/statistics/deepfake-statistics
Top 5 Cases of AI Deepfake Fraud From 2024 Exposed | Blog—
https://incode.com/blog/top-5-cases-of-ai-deepfake-fraud-from-2024-exposed
Deepfakes may use new technology, but they’re based on an old idea— https://www.popsci.com/technology/deepfakes-history-museum-exhibit
AI-fueled crypto scams are booming, up 456% — and no one is safe, expert warns—
https://nypost.com/2025/07/26/tech/ai-fueled-crypto-scams-surging-in-nyc-and-beyond-expert-warns
Courts aren’t ready for AI-generated evidence—
https://www.axios.com/2025/07/25/courts-deepfakes-ai-trial-evidence
Copyrighting the self: Denmark’s bold legal move against deepfakes—
https://trademarklawyermagazine.com/copyrighting-the-self-denmarks-bold-legal-move-against-deepfakes
President Trump signs Take It Down Act, addressing nonconsensual deepfakes. What is it?— https://apnews.com/article/take-it-down-deepfake-trump-melania-first-amendment-741a6e525e81e5e3d8843aac20de8615