Forum

ความเสี่ยงขององค์กร...
 
แบ่งปัน:
การแจ้งเตือน
ลบทั้งหมด

ความเสี่ยงขององค์กรที่ต้องระมัดระวังจากการใช้ Generative AI

1 โพสต์
1 ผู้ใช้
0 Reactions
80 เข้าชม
(@natthasit-n)
Eminent Member
เข้าร่วม: 12 เดือน ที่ผ่านมา
กระทู้: 8
หัวข้อเริ่มต้น  

ความเสี่ยงขององค์กรจากการใช้ Generative AI
เราไม่อาจปฏิเสธได้ว่า Generative AI หรือปัญญาประดิษฐ์ที่มีความสามารถในการสร้างข้อมูล (ทั้งในรูปแบบของข้อความ รูปภาพ เสียง) เข้ามามีบทบาทอย่างมากต่อองค์กร แต่อย่างไรก็ตามบุคลากรในองค์กรควรระมัดระวังความเสี่ยงจากการใช้ Generative AI ที่จะเกิดผลกระทบต่อองค์กรได้ ทั้งนี้ สถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (National Institute of Standards and Technology หรือ NIST) ประเทศสหรัฐอเมริกา ได้ระบุความเสี่ยงที่อาจจะเกิดขึ้นได้จากการใช้ Generative AI และองค์กรควรจะต้องเตรียมพร้อมรับมือกับความเสี่ยงเหล่านั้น ได้แก่

1. ข้อมูลที่เกี่ยวข้องกับ คชรน. (CBRN Information):
AI มีการใช้ข้อมูลที่เกี่ยวข้องกับอาวุธเคมีที่ใช้สารเคมีในการทำลายล้าง (Chemical weapon) อาวุธชีวภาพ (Biological weapon) อาวุธรังสี (Radiological Weapons) และอาวุธนิวเคลียร์ (Nuclear Weapons) หรือรวมเรียกว่า CBRN Weapons (อาวุธ คชรน.) หรือข้อมูลที่เกี่ยวข้องกับวัตถุชีวภาพที่อันตราย การที่ AI นำข้อมูลเหล่านี้ไปใช้ ทำให้บุคคลที่ไม่ใช่ผู้เชี่ยวชาญเข้าถึงข้อมูลเหล่านี้ได้และอาจถูกนำไปใช้ในทางที่ไม่ถูกต้อง

2. การสร้างเรื่องราวขึ้นใหม่ (Confabulation):
AI ทำการสร้างเนื้อหาอย่างมั่นใจจากคำสั่งที่ผู้ใช้งานป้อนลงไป โดยเนื้อหาที่ AI สร้างขึ้นนั้นอาจเป็นข้อมูลที่ไม่ถูกต้อง เรื่องราวที่ข้อมูลไม่ถูกต้องนี้อาจทำให้เกิดความเข้าใจผิด เข้าใจคลาดเคลื่อน และเมื่อถูกเผยแพร่ออกไปหรือถูกนำข้อมูลที่ไม่ถูกต้องนี้ไปใช้ประกอบการตัดสินใจเรื่องสำคัญ อาจก่อให้เกิดความเสียหายเป็นวงกว้างได้ ทั้งนี้ Confabulation อาจเป็นที่รู้จักกันในปรากฏการณ์ที่เรียกว่า "ภาพหลอน (Hallucinations)" หรือ "การแต่งเรื่อง (Fabrications)"

3. การสร้างคำแนะนำที่เป็นอันตรายหรือการใช้ความรุนแรง (Dangerous or Violent Recommendations):
AI สามารถแสดงผลลัพท์ไปในทิศทางที่เป็นการกระทำที่ผิดกฏหมาย สร้างความรุนแรง ก่ออาชญกรรมได้ เช่น การควบคุมคนทำอย่างไร (How to manipulate people) การก่อการร้าย (Conduct acts of terrorism) รวมถึง อาจมีการดึงภาพความรุนแรงหรือเนื้อหาที่อันตรายมาสร้างเป็นผลลัพท์ป้อนกลับแก่ผู้ใช้งาน ถึงแม้ว่าเจ้าของหรือบริษัทผู้สร้าง AI จะมีการออกแบบให้คัดกรองและตรวจจับเรื่องละเอียดอ่อนเหล่านี้แล้ว แต่อย่างไรก็ตาม ประเด็นเหล่านี้ไม่สามารถถูกคัดกรองหรือตรวจจับได้ทั้งหมด ยังคงมีข้อมูลเหล่านี้หลุดไปถึงผู้ใช้บริการได้อยู่ ส่งผลให้ยังคงมีความเสี่ยงสูงมากที่เรื่องดังกล่าวเหล่านี้อาจก่อให้เกิดอันตรายอย่างร้ายแรงต่อตัวผู้ใช้เอง ต่อองค์กร และต่อสังคมอีกด้วย

4. การเปิดเผยข้อมูลส่วนบุคคล (Data Privacy):
AI ทำให้ข้อมูลส่วนบุคคลรั่วไหล (Leakage) หรือถูกเปิดเผยโดยไม่ได้รับอนุญาตได้ (Unauthorized disclosure) หรือความพยายามในการเปิดเผยตัวบุคคลถอดความเป็นนิรนามออก (De-anonymization) โดยการใช้ข้อมูล อาทิ ข้อมูลไบโอเมทริกซ์ (Biometric information เช่น ลายนิ้วมือ ม่านตา ใบหน้า) ข้อมูลสุขภาพ (Health information) ข้อมูลตำแหน่ง (Location information) หรือข้อมูลอื่น ๆ ที่สามารถใช้ระบุตัวตนได้ (Personally identifiable information) การรวบรวมข้อมูลเหล่านี้จาก AI ทำให้อาจอนุมานไปยังตัวบุลคลคนนั้นได้ รวมถึงข้อมูลอาจถูกนำไปใช้ลงข้อสรุปในทิศทางที่ไม่ถูกต้อง ส่งผลให้เกิดความเข้าใจผิดหรือตัดสินบุคคลใดบุคคลหนึ่งอย่างมีอคติ

5. ความเสี่ยงและผลกระทบด้านสิ่งแวดล้อม (Environmental Impacts):
ในการสร้างและใช้ AI ต่าง ๆ เหล่านี้ต้องใช้ทรัพยากรอย่างมาก เนื่องจากตัวโมเดล AI ต้องถูกพัฒนาขึ้นได้ต้องมีการฝึกฝนโมเดล (Model training) มีการปรับแต่งโมเดลอย่างละเอียด (Model fine-tuning) และการอนุมานหาข้อสรุปจากข้อมูลต่าง ๆ (Model inferencing) ซึ่งกิจกรรมเหล่านี้ส่งผลให้มีการปลดปล่อยแก๊สคาร์บอนไดออกไซด์และสร้าง Carbon footprint อย่างมาก ซึ่งอาจสร้างผลกระทบต่อสิ่งแวดล้อมตามมาได้

แหล่งอ้างอิง:
National Institute of Standards and Technology [NIST] (2024). Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile.


   
อ้างอิง

ทิ้งคำตอบไว้

ชื่อผู้แต่ง

อีเมลผู้เขียน

ตำแหน่ง *

 
ดูตัวอย่าง แก้ไข 0 ครั้ง บันทึกแล้ว
แบ่งปัน:
1,217,855 views since 16 August 2018