Responsible AI: ปัญญาประดิษฐ์ที่มีความรับผิดชอบ 

Responsible AI: ปัญญาประดิษฐ์ที่มีความรับผิดชอบ 

30 August 2024

ในยุคที่เทคโนโลยีปัญญาประดิษฐ์ (AI) กำลังก้าวหน้าอย่างรวดเร็วและมีบทบาทสำคัญในหลากหลายแง่มุมของชีวิตเรา แนวคิดเรื่อง Responsible AI หรือปัญญาประดิษฐ์ที่มีความรับผิดชอบ จึงเป็นประเด็นที่ได้รับความสนใจมากขึ้นเรื่อย ๆ แต่ Responsible AI คืออะไร และทำไมจึงมีความสำคัญ ? บทความนี้จะพาคุณไปทำความรู้จักกับแนวคิดนี้อย่างละเอียด 

Responsible AI คืออะไร? 

Responsible AI หมายถึงแนวทางในการพัฒนา ใช้งาน และกำกับดูแลเทคโนโลยี AI ที่คำนึงถึงผลกระทบทางจริยธรรม สังคม และกฎหมาย โดยมุ่งเน้นให้ AI สร้างประโยชน์สูงสุดแก่มนุษย์และสังคม ขณะเดียวกันก็ลดความเสี่ยงและผลกระทบเชิงลบที่อาจเกิดขึ้น 

หลักการสำคัญของ Responsible AI 

1. ความโปร่งใส (Transparency): ระบบ AI ควรสามารถอธิบายกระบวนการตัดสินใจได้ เพื่อให้ผู้ใช้เข้าใจและตรวจสอบได้ 

2. ความเป็นธรรม (Fairness): ลดอคติและการเลือกปฏิบัติในการทำงานของ AI เพื่อให้มั่นใจว่าทุกคนได้รับการปฏิบัติอย่างเท่าเทียม 

3. ความปลอดภัยและความน่าเชื่อถือ (Safety and Reliability): AI ต้องทำงานอย่างปลอดภัยและเชื่อถือได้ โดยมีการทดสอบและตรวจสอบอย่างรัดกุม 

4. ความเป็นส่วนตัว (Privacy): ปกป้องข้อมูลส่วนบุคคลของผู้ใช้และเคารพสิทธิความเป็นส่วนตัว 

5. ความรับผิดชอบ (Accountability): มีกลไกรับผิดชอบเมื่อเกิดปัญหาจากการใช้ AI และมีการกำหนดผู้รับผิดชอบอย่างชัดเจน 

6. ผลกระทบต่อสังคม (Social Impact): พิจารณาผลกระทบในวงกว้างต่อสังคม เศรษฐกิจ และสิ่งแวดล้อม 

Responsible AI เป็นแนวคิดสำคัญในการพัฒนาและใช้งานปัญญาประดิษฐ์อย่างมีความรับผิดชอบ โดยมุ่งเน้นการสร้างความไว้วางใจ ลดความเสี่ยง และส่งเสริมนวัตกรรมที่เป็นประโยชน์ต่อสังคม ขณะเดียวกันก็เตรียมพร้อมรับมือกับกฎระเบียบที่อาจเกิดขึ้นในอนาคต อย่างไรก็ตาม การนำ Responsible AI ไปปฏิบัติยังคงมีความท้าทายหลายประการ ทั้งในแง่ของความซับซ้อนของเทคโนโลยี การสร้างสมดุลระหว่างนวัตกรรมและความรับผิดชอบ ความแตกต่างทางวัฒนธรรม และการวัดผลความสำเร็จ การตระหนักถึงความสำคัญและความท้าทายเหล่านี้จะช่วยให้องค์กรและผู้พัฒนาสามารถก้าวไปข้างหน้าในการสร้างระบบ AI ที่มีประสิทธิภาพและรับผิดชอบต่อสังคมได้อย่างยั่งยืน 

แนวทาง Responsible AI ของบริษัทเทคโนโลยีชั้นนำ 

เพื่อให้เห็นภาพที่ชัดเจนขึ้นว่า Responsible AI ถูกนำไปปฏิบัติอย่างไรในโลกธุรกิจ เรามาดูการเปรียบเทียบแนวทางของบริษัทยักษ์ใหญ่ด้านเทคโนโลยี ได้แก่ Google, Microsoft, Amazon, IBM, OpenAI และ Facebook ดังตาราง 

Google: ให้ความสำคัญกับความโปร่งใสและความเป็นธรรมใน AI เป็นอย่างมาก โดยมีหลักการ AI ที่ชัดเจนและเครื่องมืออย่าง AI Explainability เพื่อให้ผู้ใช้เข้าใจการทำงานของโมเดล AI ได้ดีขึ้น นอกจากนี้ Google ยังมีโครงการต่างๆ เช่น Project AI ที่มุ่งเน้นการพัฒนา AI ที่เป็นประโยชน์ต่อสังคม 

Microsoft: เน้นย้ำถึงความรับผิดชอบและความปลอดภัยในการพัฒนา AI โดยมี Responsible AI Standard เป็นแนวทางในการพัฒนาผลิตภัณฑ์ AI ทั้งหมด นอกจากนี้ Microsoft ยังมีโครงการ AI for Earth และ AI for Good ที่มุ่งใช้ AI แก้ปัญหาสิ่งแวดล้อมและสังคม 

Amazon: ให้ความสำคัญกับความโปร่งใสและความรับผิดชอบในการใช้ AI โดยมีเครื่องมือตรวจจับอคติและกระบวนการตรวจสอบที่เข้มงวด นอกจากนี้ Amazon ยังสนับสนุนการวิจัยด้าน AI ผ่านโครงการ Amazon Scholar และนำ AI มาใช้เพื่อพัฒนาผลิตภัณฑ์และบริการต่างๆ 

IBM: เน้นย้ำถึงความน่าเชื่อถือ ความโปร่งใส และความเป็นธรรมในการพัฒนา AI โดยมีเครื่องมืออย่าง AI Fairness 360 และ AI OpenScale เพื่อช่วยให้นักพัฒนาสร้างโมเดล AI ที่เป็นธรรมและโปร่งใส นอกจากนี้ IBM ยังมีโครงการ Project Debater ที่พัฒนา AI เพื่อโต้แย้งกับมนุษย์ 

OpenAI: เน้นย้ำถึงความปลอดภัยและประโยชน์ต่อมนุษยชาติในการพัฒนา AI โดยใช้เทคนิค Reinforcement Learning from Human Feedback (RLHF) เพื่อฝึกสอนโมเดล AI ให้เป็นไปตามค่าที่มนุษย์ต้องการ นอกจากนี้ OpenAI ยังเปิดเผยข้อมูลทางเทคนิคเกี่ยวกับโมเดล AI เพื่อส่งเสริมความโปร่งใส 

Meta (Facebook): เน้นย้ำถึงความเป็นธรรม ความโปร่งใส และความรับผิดชอบในการพัฒนา AI โดยมีเครื่องมือ Fairness Flow เพื่อช่วยให้นักพัฒนาตรวจสอบและแก้ไขปัญหาอคติในโมเดล AI นอกจากนี้ Meta ยังมี Oversight Board เพื่อตรวจสอบการตัดสินใจที่สำคัญของบริษัทเกี่ยวกับเนื้อหาบนแพลตฟอร์ม 

บริษัทเทคโนโลยีชั้นนำเหล่านี้ต่างให้ความสำคัญกับการพัฒนา AI อย่างรับผิดชอบ โดยมีแนวทางและเครื่องมือที่หลากหลายเพื่อช่วยให้มั่นใจว่า AI จะถูกนำมาใช้ในทางที่ดีและเป็นประโยชน์ต่อสังคม 

แนวทาง Responsible AI ของหน่วยงานภาครัฐในประเทศไทย 

สำหรับประเทศไทย แม้จะยังไม่มีกรอบการทำงานหรือแนวทางปฏิบัติด้าน Responsible AI ที่เป็นทางการ แต่ก็มีความพยายามในการพัฒนาในด้านนี้ สรุปสถานการณ์ปัจจุบันของไทยได้ดังนี้: 

1. ยุทธศาสตร์ปัญญาประดิษฐ์แห่งชาติ: 

   กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (MDES) ได้จัดทำ “ยุทธศาสตร์ปัญญาประดิษฐ์แห่งชาติ” ซึ่งมีการกล่าวถึงประเด็นด้านจริยธรรมและความรับผิดชอบในการพัฒนาและใช้งาน AI โดยหลักการสำคัญที่สะท้อนถึงแนวคิด Responsible AI ในยุทธศาสตร์ฯ ได้แก่  

การพัฒนาอย่างยั่งยืน: เน้นการนำ AI มาใช้เพื่อแก้ไขปัญหาสังคมและเศรษฐกิจอย่างยั่งยืน โดยคำนึงถึงผลกระทบในระยะยาวต่อสิ่งแวดล้อมและสังคม 

ความโปร่งใส: การพัฒนาและใช้งาน AI ต้องมีความโปร่งใส สามารถตรวจสอบได้ และสามารถอธิบายได้ว่า AI ทำงานอย่างไร 

ความเป็นธรรม: การออกแบบและพัฒนา AI ต้องปราศจากอคติ และไม่ก่อให้เกิดความไม่เท่าเทียม 

ความปลอดภัย: การพัฒนาและใช้งาน AI ต้องมีความปลอดภัย ไม่ก่อให้เกิดอันตรายต่อบุคคลหรือทรัพย์สิน 

ความรับผิดชอบ: ผู้พัฒนาและผู้ใช้งาน AI ต้องมีความรับผิดชอบต่อผลกระทบที่เกิดจากการใช้งาน AI 

2. แนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ ของ ETDA: 

   แนวปฏิบัติจริยธรรมปัญญาประดิษฐ์ หรือ AI Ethics Guideline ที่จัดทำโดยสำนักงานพัฒนาวิทยาศาสตร์และเทคโนโลยีแห่งชาติ (สพธอ.) หรือ ETDA นั้น ถือเป็นเอกสารสำคัญที่ให้แนวทางในการพัฒนาและใช้งานปัญญาประดิษฐ์อย่างมีความรับผิดชอบในประเทศไทย แนวคิดหลักของ Responsible AI ที่สะท้อนออกมาในเอกสารฉบับนี้มีดังนี้ 

ความโปร่งใส: ระบบ AI ควรสามารถอธิบายได้ว่าการตัดสินใจเกิดขึ้นได้อย่างไร เพื่อให้ผู้ใช้งานเข้าใจและไว้วางใจ 

ความเป็นธรรม: AI ควรได้รับการออกแบบและพัฒนาเพื่อหลีกเลี่ยงอคติและความไม่เท่าเทียม 

ความรับผิดชอบ: ผู้พัฒนา ผู้ใช้งาน และองค์กรที่เกี่ยวข้องกับ AI ควรรับผิดชอบต่อผลกระทบที่เกิดจากการใช้งาน AI 

ความปลอดภัย: ระบบ AI ควรได้รับการออกแบบและพัฒนาเพื่อความปลอดภัย ไม่ก่อให้เกิดอันตรายต่อบุคคลหรือทรัพย์สิน 

ความเป็นส่วนตัว: การเก็บรวบรวมและใช้งานข้อมูลส่วนบุคคลต้องเป็นไปตามกฎหมายและได้รับความยินยอมจากเจ้าของข้อมูล 

ความยั่งยืน: การพัฒนาและใช้งาน AI ควรคำนึงถึงผลกระทบในระยะยาวต่อสังคมและสิ่งแวดล้อม 

นอกจากหลักการพื้นฐานแล้ว แนวทางของ ETDA ยังให้รายละเอียดเกี่ยวกับการปฏิบัติที่เป็นรูปธรรม เช่น 

การสร้างคณะกรรมการจริยธรรม: องค์กรควรมีคณะกรรมการที่รับผิดชอบในการกำกับดูแลและตรวจสอบการพัฒนาและใช้งาน AI 

การให้ความสำคัญกับสิทธิมนุษยชน: การพัฒนา AI ควรคำนึงถึงสิทธิมนุษยชนเป็นสำคัญ 

การสร้างความตระหนัก: สร้างความเข้าใจเกี่ยวกับ AI และผลกระทบของ AI ให้กับบุคลากรและสังคม 

การร่วมมือกับภาคส่วนต่างๆ: ร่วมมือกับภาครัฐ ภาคเอกชน และภาคประชาสังคมในการพัฒนาและกำหนดนโยบายเกี่ยวกับ AI 

ความท้าทายและโอกาสสำหรับประเทศไทย: 

จะเห็นได้ว่าหน่วยงานภาครัฐของประเทศไทยก็ยังให้ความสำคัญและพยายามเป็นอย่างยิ่งที่จะพัฒนาแผนเพื่อรองรับ Responsible AI ซึ่งยังต้องอาศัยองค์ความรู้และความร่วมมือจากทุกภาคส่วนโดยมีแนวทางดังต่อไปนี้ 

1. การพัฒนากรอบการทำงานที่ครอบคลุม: ไทยยังต้องพัฒนากรอบการทำงานด้าน Responsible AI ที่ครอบคลุมและเป็นรูปธรรมมากขึ้น 

2. การบูรณาการระหว่างหน่วยงาน: ต้องมีการประสานงานระหว่างหน่วยงานภาครัฐ ภาคเอกชน และภาคการศึกษาให้มากขึ้น 

3. การสร้างความตระหนักรู้: ต้องมีการให้ความรู้และสร้างความตระหนักเกี่ยวกับ Responsible AI ในวงกว้าง 

4. การปรับใช้ให้เหมาะสมกับบริบทไทย: ต้องพิจารณาบริบททางสังคม วัฒนธรรม และเศรษฐกิจของไทยในการพัฒนาแนวทาง Responsible AI 

5. การพัฒนากฎหมายและกฎระเบียบ: อาจต้องมีการพัฒนากฎหมายหรือกฎระเบียบที่เกี่ยวข้องกับ AI เพื่อรองรับการพัฒนาและการใช้งานอย่างมีความรับผิดชอบแม้ว่าประเทศไทยจะยังอยู่ในช่วงเริ่มต้นของการพัฒนาแนวทาง Responsible AI แต่ก็มีความตื่นตัวและความพยายามจากหลายภาคส่วน ซึ่งเป็นสัญญาณที่ดีสำหรับการพัฒนาในอนาคต การศึกษาและปรับใช้แนวทางจากต่างประเทศ ควบคู่ไปกับการพัฒนาแนวทางที่เหมาะสมกับบริบทของไทย จะเป็นกุญแจสำคัญในการส่งเสริม Responsible AI ในประเทศไทยต่อไป 

บทสรุป 

Responsible AI ไม่ใช่เพียงแนวคิดเชิงทฤษฎี แต่เป็นแนวทางปฏิบัติที่จำเป็นในยุคที่ AI มีบทบาทสำคัญในชีวิตประจำวันของเรา การพัฒนาและใช้งาน AI อย่างมีความรับผิดชอบไม่เพียงแต่จะช่วยลดความเสี่ยงและผลกระทบเชิงลบ แต่ยังเป็นการสร้างรากฐานสำหรับการพัฒนาเทคโนโลยีที่ยั่งยืนและเป็นประโยชน์ต่อมนุษยชาติในระยะยาว ดังนั้น ทุกภาคส่วน ไม่ว่าจะเป็นภาครัฐ ภาคเอกชน นักวิจัย และประชาชนทั่วไป ล้วนมีบทบาทสำคัญในการส่งเสริมและสนับสนุนแนวคิด Responsible AI เพื่อสร้างอนาคตที่ AI และมนุษย์สามารถอยู่ร่วมกันได้อย่างสร้างสรรค์และยั่งยืน

บทความโดย ปริสุทธิ์ จิตต์ภักดี 

ตรวจทานและปรับปรุงโดย นววิทย์ พงศ์อนันต์  

แหล่งอ้างอิง 

1. Bostrom, N., & Yudkowsky, E. (2014). The Ethics of Artificial Intelligence. In K. Frankish & W. M. Ramsey (Eds.), The Cambridge Handbook of Artificial Intelligence (pp. 316-334). Cambridge University Press. https://doi.org/10.1017/CBO9781139046855.020  

2. European Commission’s High-Level Expert Group on AI. (2019). Ethics Guidelines for Trustworthy AI. Retrieved from https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai  

3. The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. (n.d.). AI Ethics: Global Perspectives. Retrieved from https://ethicsinaction.ieee.org/  

4. Google AI. (n.d.). Responsible AI Practices. Retrieved from https://ai.google/responsibilities/responsible-ai-practices/  

5. Google. (n.d.). AI Principles. Retrieved from https://ai.google/responsibility/principles/  

6. Google. (n.d.). Project AI. Retrieved from https://blog.google/technology/ai/  

7. Microsoft. (2019). Responsible AI: A Framework for Building Trust in AI Systems. Retrieved from https://www.microsoft.com/en-us/ai/responsible-ai  

8. Microsoft. (n.d.). Responsible AI Standard. Retrieved from https://www.microsoft.com/en-us/ai/responsible-ai  

9. Microsoft Research. (n.d.). Fairlearn: A toolkit for assessing and improving fairness in AI. Retrieved from https://www.microsoft.com/en-us/research/publication/fairlearn-a-toolkit-for-assessing-and-improving-fairness-in-ai/  

10. Microsoft. (n.d.). AI for Earth. Retrieved from https://news.microsoft.com/apac/features/ai-for-earth-helping-save-the-planet-with-data-science/  

11. Microsoft Research. (n.d.). AI for Good Research Lab. Retrieved from https://www.microsoft.com/en-us/research/group/ai-for-good-research-lab/  

12. Amazon Web Services. (n.d.). AWS AI for Good. Retrieved from https://aws.amazon.com/ai/  

13. IBM Research. (n.d.). AI Fairness 360. Retrieved from https://aif360.res.ibm.com/  

14. IBM. (n.d.). Manage AI models with IBM Watson OpenScale. Retrieved from https://mediacenter.ibm.com/media/Manage+AI+models+with+IBM+Watson+OpenScale/1_lqiuc2uq  

15. IBM. (n.d.). Project Debater. Retrieved from https://opentodebate.org/debaters/ibm-project-debater/  

16. IBM. (n.d.). AI for Social Good. Retrieved from https://www.ibm.com/watson/social-impact  

17. OpenAI. (n.d.). Reinforcement Learning from Human Feedback (RLHF). Retrieved from https://openai.com/index/learning-from-human-preferences/  

18. OpenAI. (n.d.). GPT-3. Retrieved from https://openai.com/index/gpt-3-apps/  

19. Meta AI. (n.d.). How we’re using Fairness Flow to help build AI that works better for everyone. Retrieved from https://ai.meta.com/blog/how-were-using-fairness-flow-to-help-build-ai-that-works-better-for-everyone/  

20. Meta. (n.d.). Oversight Board. Retrieved from https://www.oversightboard.com/  

21. Meta AI. (n.d.). AI for Good. Retrieved from https://ai.meta.com/meta-ai/  

22. Meta. (n.d.). Reality Labs. Retrieved from https://about.meta.com/realitylabs/  

23. กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม (MDES). (2564). ยุทธศาสตร์ปัญญาประดิษฐ์แห่งชาติ. สืบค้นจาก https://www.mdes.go.th/policy/5179  

24. สำนักงานพัฒนาธุรกรรมทางอิเล็กทรอนิกส์ (ETDA). (2565). แนวปฏิบัติจริยธรรมปัญญาประดิษฐ์. สืบค้นจาก https://www.etda.or.th/getattachment/9d370f25-f37a-4b7c-b661-48d2d730651d/Digital-Thailand-AI-Ethics-Principle-and-Guideline.pdf.aspx?lang=th-TH   

Data Management Training and Development Manager at Big Data Institute (Public Organization), BDI

แบ่งปันบทความ

กลุ่มเนื้อหา

แท็กยอดนิยม

แจ้งเรื่องที่อยากอ่าน

คุณสามารถแจ้งเรื่องที่อยากอ่านให้เราทราบได้ !
และเราจะนำไปพัฒนาบทความให้มีเนื้อหาที่น่าสนใจมากขึ้น

PDPA Icon

We use cookies to optimize your browsing experience and improve our website’s performance. Learn more at our Privacy Policy and adjust your cookie settings at Settings

Privacy Preferences

You can choose your cookie settings by turning on/off each type of cookie as needed, except for necessary cookies.

Accept all
Manage Consent Preferences
  • Strictly Necessary Cookies
    Always Active

    This type of cookie is essential for providing services on the website of the Personal Data Protection Committee Office, allowing you to access various parts of the site. It also helps remember information you have previously provided through the website. Disabling this type of cookie will result in your inability to use key services of the Personal Data Protection Committee Office that require cookies to function.
    Cookies Details

  • Performance Cookies

    This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

  • Functional Cookies

    This type of cookie enables the Big Data Institute (Public Organization)’s website to remember the choices you have made and deliver enhanced features and content tailored to your usage. For example, it can remember your username or changes you have made to font sizes or other customizable settings on the page. Disabling these cookies may result in the website not functioning properly.

  • Targeting Cookies

    "This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

Save settings
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.