Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the starter-blog domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/ainsidec/domains/myjavaserver.com/public_html/wp-includes/functions.php on line 6121
มิติของสื่อปลอมในยุคที่ Ai ถูกใช้เป็นเครื่องมือแห่งการลวงหลอก - My Java Server - Blog ด้าน Technology หลากหลายในไทย
Menu Close

มิติของสื่อปลอมในยุคที่ Ai ถูกใช้เป็นเครื่องมือแห่งการลวงหลอก

deepfakes AI

ทุกครั้งที่คุณไถ Reel-Ig หรือ Tiktok สิ่งแรกที่คุณทำเมื่อเลื่อนผ่านอุบัติเหตุน่าหวาดเสียวอาจเป็นการขยับนิ้วไปที่ช่องคอมเมนต์ แล้วกวาดสายตาหาความเห็นของใครก็ได้ที่มีคำว่า ‘Ai’ ปรากฏอยู่ หรือไม่ก็เป็นคุณเสียเองที่ประกาศให้ผู้อื่นรู้ว่าคลิปนี้ไม่ใช่ของจริง “มันปลอม มันถูกเฟกขึ้นมา”— ซึ่งสถานการณ์ดังกล่าวเป็นเพียงตัวอย่างของการหลอกลวงที่จิ๊บจ๊อยที่สุด เพราะนี่คือยุคที่พินอคคิโอไม่จำเป็นต้องจมูกยาวอีกต่อไปถ้าเขาใช้ ‘เอไอ’ เป็น

       บทบาทของ ‘เอไอ’ ในการปรุงแต่งเรื่องโกหก

       แม้ ‘Deepfake’ จะเป็นชื่อเรียกของข้อมูลเท็จที่ถูกรังสรรค์ด้วย ‘Ai’ หรือ ‘ปัญญาประดิษฐ์’ ซึ่งเพิ่งจะมามีบทบาทและทะยานสู่จุดสูงสุดของห่วงโซ่แห่งการหลอกลวงได้ไม่นาน แต่มันก็ถูกพัฒนาบนรากฐานของแนวคิดในการบิดเบือนสื่อที่มีตัวตนอยู่ก่อนหน้า เพียงแต่ว่าความสมจริงของมันถูกยกระดับให้สูงขึ้นด้วยสิ่งที่เรียกว่า ‘เครือข่ายประสาทเทียม’ หรือ ‘Artificial Neural Networks’— เจ้าสิ่งนี้เป็นระบบที่จำลองการทำงานของประสาทมนุษย์ มันทำให้เกิด ‘การเรียนรู้เชิงลึก’ อันเป็นจุดขายหลักของเอไอ ซึ่งไม่ต้องสงสัยเลยว่าคำว่า ‘Deep’ จาก ‘Deep learning’ จะย้ายไปอยู่ที่ไหนหากการเรียนรู้ดังกล่าวถูกใช้งานเพื่อหลอกลวงผู้คน

       “ดีปเฟกในฐานะเครื่องมือในการผลิตข้อมูลเท็จเป็นสิ่งที่น่ากังวลอย่ามาก แต่ฉันไม่สามารถพูดถึงความกังวลนี้ได้อย่างเต็มปาก หากไม่คำนึงถึงความรวดเร็วในการแพร่ข้อมูลทุกวันนี้” กล่าวโดย บาร์บารา มิลเลอร์ (Barbara Miller) รองผู้อำนวยการฝ่ายภัณฑารักษ์ของ ‘Museum of the Moving Image’— ผมรู้ว่าเธอไม่ใช่คนดัง แต่คำพูดเธอไม่ได้สะท้อนแค่ข้อเท็จจริงที่ว่าความเป็นโลกาภิวัตน์มีอิทธิพลต่อการสูบฉีดข้อมูลมากแค่ไหน แต่มันยังชี้ให้เห็นว่าสองสิ่งนี้… เมื่อถูกนำมาวางคู่กันมันสามารถลดระดับวิจารณญาณของผู้คนได้จริง

       คำถามคือ— วิกฤตความเชื่อจะส่งผลอย่างไรในยุครุ่งโรจน์แห่งความหลอกลวง

ย่อหน้าแรกของบทความนี้ได้แง้มผลลัพธ์ของดีปเฟกที่ส่งผลต่อผู้คนเอาไว้อย่างพอสังเขป มันทำให้ความหวาดระแวงกลายเป็นหนึ่งในการตอบสนองหลักที่เกิดขึ้นเวลาเสพสื่อ มันอาจลดทอนความน่าเชื่อถือของความจริงด้วยการทำให้ใครสักคนมีข้ออ้างให้กับพฤติกรรมหรือรูปภาพบางอย่างของตนเองว่า “มันถูกปลอมแปลงขึ้นมา ใคร ๆ ก็ทำได้”— และในทางกลับกันมันก็พร้อมจะสร้างความเสียหายถ้าหากข้อมูลเท็จพวกนั้นถูกทำให้มีน้ำหนักมากขึ้น

ไม่ใช่แค่นั้น— เพราะดูเหมือนว่าอัลกอริทึมก็แทรกแซงเข้ามามีบทบาทในความรุ่งโรจน์ของดีปเฟกเช่นกัน อย่างที่ใครหลายคนรู้ดีว่าหนึ่งในความสามารถของมันคือการเรียนรู้และจดจำพฤติกรรมในการเสพสื่อของผู้ใช้ ไม่ว่าจะเป็น YouTube, TikTok, Instagram หรือ Google ซึ่งกระบวนการตรงนี้จะถูกใช้ในการคัดกรองข้อมูลเพื่อเลือกสรรแต่สิ่งที่ผู้ใช้ให้คุณค่า ดังนั้นถ้าใครสักคนเผลอให้คุณค่ากับสื่อปลอมที่ถูกผลิต ใครคนนั้นก็จะหลงอยู่ในวังวนแห่งความหลอกลวง ซึ่งจะตีกรอบให้กับการรับรู้และความเชื่อของผู้คนได้อย่างง่ายดาย

ทว่าทั้งหมดที่ว่ามาคือสิ่งที่เกิดขึ้นแค่เบื้องหน้า— แล้วอะไรคือสิ่งที่อยู่เบื้องหลัง

 

หลังฉากของการลวงหลอกยอดฮิต

       การปรุงแต่งเรื่องโกหกที่น่าเชื่อถือผ่านสื่อออนไลน์ เคยเป็นเรื่องของคนที่สามารถให้คุณค่ากับเครื่องมือซึ่งต้องใช้เวลาอย่างมากในการรวบรวม และยังต้องใช้ความเชี่ยวชาญในระดับหนึ่งเพื่อยกระดับคุณภาพของความน่าเชื่อถือให้มากขึ้น แต่สิ่งนี้แทบไม่จำเป็นเมื่อมี ‘เครื่องมือสำเร็จรูป’ ที่ใคร ๆ ก็สามารถใช้งานได้เพียงแค่มีโทรศัพท์มือถือดี ๆ สักเครื่อง ลองจินตนาการถึงร้านสะดวกซื้อที่บนชั้นวางเรียงรายไปด้วยแอปพลิเคชันที่สามารถทำให้คุณโกหกได้เนียนขึ้นดูสิ— นั่นแหละที่กำลังหมายถึง

       เครื่องมือ ‘เอไอ’ ที่ถูกใช้ในวงการ Deepfake

       เริ่มจากตัวชูโรงอย่าง ‘Generative Adversarial Networks’ หรือ ‘GANs’— คอนเซปต์ของ GANs คือการเป็นเครือข่ายประสาทเทียมแบบแข่งขัน มันก็เหมือนกับการนำสมองสองอันมาอยู่ในห้องเดียวกัน สมองแรกพยายามสร้างสื่อปลอมให้สมจริงที่สุดไม่ว่าจะเป็น การโคลนเสียง หรือ การแปลงภาพ ในขณะที่อีกสมองถูกออกแบบให้เป็นคู่ปรับของสมองแรก เพราะหน้าที่ของมันคือการแยกแยะว่าอะไรจริงอะไรปลอม— ท้ายที่สุดแล้วผลลัพธ์ของมันคือการยกระดับให้ GANs สามารถเรียนรู้ข้อบกพร่องจากการห้ำหั่นกันระหว่างสองระบบนี้ นำไปสู่การสร้างสื่อปลอมที่มีความสมจริงมากขึ้น— แต่ GANs จะค่อนข้างไร้ประโยชน์เมื่อดีปเฟกที่อยากได้ ต้องอาศัยการสร้างข้อมูลใหม่โดยต่อยอดจากข้อมูลเดิมที่มีอยู่(และถูกบีบอัด) นั่นเป็นงานถนัดของ ‘Autoencoders’ (AEs) ซึ่งเป็นหัวใจสำคัญที่ขับเคลื่อนการมีตัวตนของซอร์ฟแวร์อย่าง ‘DeepFaceLab’ ให้โลดแล่นอยู่ในการทำศัลยกรรมออนไลน์— เพราะเจ้าสิ่งนี้คือดีปเฟกที่สามารถสลับใบหน้าได้อย่างกล่มกลืนและแนบเนียน ในเชิงสร้างสรรค์มันเคยถูกใช้งานโดยแฟนคลับของหนัง Star War เพื่อแก้ไขฉากที่ ‘Luke Skywalker’ ปรากฏตัวให้ดูดีและเป็นที่ยอมรับมากขึ้น แต่ในทิศทางที่เลวร้ายมันก็ถูกใช้เพื่อทำลายชื่อเสียงของใครหลายคน— เพราะคุณคงไม่อยากให้ข้อมูลใบหน้าของตัวเองถูกบีบอัดแล้วนำไปใส่ในคลิปเต้นระบำเปลื้องผ้าหรอกจริงไหม

 

ความเสียหายและการงัดข้อระหว่างความจริงกับความลวง

       ขอบเขตความเสียหายและเหยื่อที่ถูกดีปเฟกเล่นงานไม่ได้ถูกจำกัดอยู่แค่ในแวดวงของคนดังหรือคนธรรมดาที่ดันคบเพื่อนนิสัยกวนตีนเท่านั้น ตั้งแต่ปี 2023— เครือข่ายปราบปรามอาชญากรรมทางการเงินของสหรัฐฯ (FinCEN) ได้พบว่ามีจำนวนรายงานธุรกรรมต้องสงสัยจากสถาบันการเงินเพิ่มขึ้น โดยมีการใช้ดีปเฟกในแผนการฉ้อโกงที่มุ่งเป้าโจมตีทั้งตัวสถาบันและกลุ่มลูกค้าจำนวนมาก แม้ทางเครือข่ายจะแก้เกมด้วยการออกประกาศเตือนในกลางปี 2024 เพื่อเน้นย้ำถึงภัยคุกคามที่กำลังลุกลาม แต่นั่นก็ดูเหมือนจะยังไม่เพียงพอเมื่อพิจารณาจากเหยื่อและปริมาณความเสียหายในปีเดียวกัน

       ช่วงเดือนสิงหาคมของปีที่แล้ว— สื่อวิดีโอที่ใช้ ‘เอไอ’ ในการสร้างภาพปลอมของ ‘อีลอน มัสก์’ (Elon Musk) ถูกแพร่กระจายไปทั่วอินเทอร์เน็ต จนสร้างความเสียหายให้กับชายวัย 82— ‘สตีฟ โบแชมป์’ (Steve Beauchamp) ผู้ให้สัมภาษณ์กับ The New York Times ว่าเขาใช้เงินเกษียณทั้งหมดไปกับการลงทุนในโครงการลวงโลกครั้งนี้เป็นจำนวนถึง 690,000 ดอลลาร์สหรัฐ— เป็นจำนวนเงินที่เยอะมากว่าไหม แต่บริษัทวิศวกรรมสัญชาติอังกฤษอย่าง ‘Arup’ ขอเกทับด้วยความเสียหายมูลค่ากว่า 25 ล้านดอลลาร์สหรัฐ โดยคนร้ายใช้ดีปเฟกปลอมใบหน้าและเสียงของ ‘ประธานเจ้าหน้าที่ฝ่ายการเงิน’ หรือ ‘CFO’ และพนักงานคนอื่น ๆ ระหว่างการประชุมผ่านวิดีโอคอล ทำให้พนักงานผู้เคราะห์ร้ายเข้าใจว่าอยู่ในการประชุมกับผู้บริหารจริง ๆ และถูกหลอกให้โอนเงินในท้ายที่สุด อุบายเดียวกันนี้เริ่มถูกใช้ในบรรดาแก๊งคอลเซนเตอร์ที่พยายามดูดเงินเหยื่อโดยการปลอมตัวเป็นตำรวจ และยังสามารถสร้างความโกลาหลในชั้นศาลเมื่อ ‘หลักฐานดิจิทัล’ เริ่มไม่น่าเชื่อถือเสมอไป

      

       ‘เอไอ’ มีบทบาทอย่างไรในการงัดข้อกับดีปเฟก

       สามารถพูดได้อย่างเต็มปากว่าแม้ ‘AI จะถูกเชิดชูในบทบาทตัวร้ายหน้าใหม่ของยุคสมัยแห่งการหลอกลวง แต่ก็เป็น ‘ผู้กอบกู้’ ที่ถูกออกแบบขึ้นมาเพื่อค้ำยันโครงสร้างของความเป็นจริงให้ยังคงหยัดยืนได้

       อ้างอิงจากงานวิจัยที่ชื่อว่า ‘Exploiting Visual Artifacts to Expose Deepfakes’— ซึ่งถือเป็นหนึ่งในงานวิจัยรุ่นบุกเบิกที่ชี้ให้เห็นว่าในยุคแรกเริ่มของการทำดีปเฟกผ่านสื่อวิดีโอ ไม่ได้มีความสมจริงเสมอไป โดยจะสังเกตเห็นได้จาก ‘การไม่กระพริบตา’ หรือ ‘ความถี่ในการกระพริบตา’ ซึ่งไม่สอดคล้องกับพฤติกรรมโดยธรรมชาติของมนุษย์ และนอกจากนี้ยังมีการสอนให้ ‘เอไอ’ เรียนรู้จาก ‘เอไอ’ ด้วยกันเองผ่านการใช้ศูนย์ข้อมูลที่ประกอบไปด้วยวิดีโอปลอมและวิดีโอจริงจำนวนมาก อย่างไรก็ตาม ยังคงไม่มีหลักฐานที่บ่งบอกว่า ‘เอไอ’ สามารถรับมือกับดีปเฟกได้อย่าง 100% แม้ทุกวันนี้แพลตฟอร์มต่าง ๆ จะเริ่มพัฒนา ‘เอไอ’ ของตัวเองเพื่อสร้างประสิทธิภาพในการคัดกรองความลวงออกจากความจริงแล้วก็ตาม

       ซึ่งแนวโน้มของความสำเร็จในการคลี่คลายปัญหา ขึ้นอยู่กับว่ามนุษย์จะพัฒนา ‘เอไอ’ มารับมือได้มากแค่ไหน ในขณะที่คู่ปรับอย่าง ‘ดีปเฟก’ ก็ไม่มีทีท่าว่าจะหยุดพัฒนาเช่นเดียวกัน— น่าตลกดีที่ทำเหมือนว่าสองสิ่งนี้เป็นขั้วตรงข้ามของกันและกัน ทั้ง ๆ ที่มันถูกคลอดออกมาจากเทคโนโลยีเดียวกัน

 

บทสรุป

       การเรียบเรียงบทความนี้มันเหมือนกับการค่อย ๆ มองภาพของโลกที่ความก้าวหน้าถูกขับเคลื่อนอย่างรวดเร็ว จนให้กำเนิดทั้ง ‘เครื่องมือสุดร้ายกาจ’ และ ‘ระบบป้องกันสุดซับซ้อน’ เรากำลังอยู่ในโลกที่เอไอถูกใช้ในการลบเส้นแบ่งระหว่าง ‘ความจริง’ กับ ‘ความลวง’ ซึ่งสิ่งนี้ส่งผลกระทบต่อทุกสิ่งเป็นวงกว้าง นำมาสู่คำถามที่ว่ามนุษย์จะหมุนโลกให้ไล่ตามความเปลี่ยนแปลงอันแสนบ้าคลั่งนี้ได้อย่างไร— บทกฎหมายใหม่ของประเทศเดนมาร์กอาจเป็นหนึ่งในคำตอบของคำถามดังกล่าว พวกเขาเปลี่ยนใบหน้าให้กลายเป็นทรัพย์สินประจำตัว ซึ่งไม่ใช่แค่เรื่องของข้อมูลส่วนบุคคลหรือการยินยอม แต่ยังเป็นเรื่องของใส่ภาพลักษณ์ของคนนั้น ๆ เอาไว้ในการคุ้มครองของกฎหมายอีกด้วย ในขณะเดียวกันการไล่ตามเล่ห์กลของ ‘เอไอ’ ในรูปแบบที่คล้ายกันนี้ก็เกิดขึ้นในประเทศยักษ์ใหญ่อย่างสหรัฐอเมริกาเมื่อประธานาธิบดี ‘โดนัลด์ ทรัมป์’ (Donald Trump) เพิ่งจะลงนามในกฎหมาย “Take It Down Act” เพื่อปกป้องเหยื่อจากภาพลามกอนาจารที่ไม่ได้รับความยินยอมและเกิดจากดีปเฟก— การต่อสู้ระหว่างความจริงกับความลวงเพิ่งเริ่มต้น ความเป็นไปได้ที่ว่าในอนาคตมนุษย์จะแยกแยะไม่ออกว่าอะไรคือข้อมูลจริงอะไรคือข้อมูลเท็จ ไมได้เท่ากับ 0 เสียทีเดียว…

 

แหล่งค้นคว้า (References)

Deepfake statistics (2025): 25 new facts for CFOs—

https://www.eftsure.com/statistics/deepfake-statistics

Top 5 Cases of AI Deepfake Fraud From 2024 Exposed | Blog—

https://incode.com/blog/top-5-cases-of-ai-deepfake-fraud-from-2024-exposed

Deepfakes may use new technology, but they’re based on an old idea— https://www.popsci.com/technology/deepfakes-history-museum-exhibit

AI-fueled crypto scams are booming, up 456% — and no one is safe, expert warns—

https://nypost.com/2025/07/26/tech/ai-fueled-crypto-scams-surging-in-nyc-and-beyond-expert-warns

Courts aren’t ready for AI-generated evidence—

https://www.axios.com/2025/07/25/courts-deepfakes-ai-trial-evidence

Copyrighting the self: Denmark’s bold legal move against deepfakes—

https://trademarklawyermagazine.com/copyrighting-the-self-denmarks-bold-legal-move-against-deepfakes

President Trump signs Take It Down Act, addressing nonconsensual deepfakes. What is it?— https://apnews.com/article/take-it-down-deepfake-trump-melania-first-amendment-741a6e525e81e5e3d8843aac20de8615

Leave a Reply

Your email address will not be published. Required fields are marked *