Peeradon Samasiri, PhD

Peeradon Samasiri, PhD

Senior Project Manager & Data Scientist at Big Data Institute (Public Organization), BDI

บทความทั้งหมด

All Articles

Author Category Post Filter
เตรียมตัวก้าวสู่อนาคตที่ยั่งยืนกับการใช้ข้อมูลเพื่อการบริหารจัดการคาร์บอน
บทนำ ในยุคที่การเปลี่ยนแปลงสภาพภูมิอากาศเป็นปัญหาที่เร่งด่วนและส่งผลกระทบต่อทุกภาคส่วน การจัดการคาร์บอนเครดิตจึงกลายเป็นเครื่องมือสำคัญในการลดปริมาณการปล่อยก๊าซเรือนกระจก บทความนี้จะสำรวจบทบาทของการใช้ข้อมูลในการบริหารจัดการคาร์บอนเครดิต (carbon credit) และการประเมินคาร์บอนฟุตพรินต์ (carbon footprint) ทั้งในระดับองค์กรและบุคคล คาร์บอนฟุตพรินต์และคาร์บอนเครดิต: ความหมายและความสำคัญ คาร์บอนฟุตพรินต์ หมายถึง ปริมาณการปล่อยก๊าซเรือนกระจกที่เกิดจากกิจกรรมของบุคคลหรือองค์กร วัดในหน่วยของตันคาร์บอนไดออกไซด์เทียบเท่า (CO₂e) ส่วน คาร์บอนเครดิต เป็นหน่วยที่ใช้วัดการลดหรือชดเชยการปล่อยก๊าซเรือนกระจก โดยเครดิตหนึ่งหน่วยเท่ากับการลดการปล่อยก๊าซเรือนกระจกหนึ่งตันคาร์บอนไดออกไซด์เทียบเท่า การใช้คาร์บอนเครดิตเป็นเครื่องมือสำคัญในการชดเชยคาร์บอนฟุตพรินต์ที่หลีกเลี่ยงไม่ได้ ความสำคัญของการรู้คาร์บอนฟุตพรินต์และการวิเคราะห์ข้อมูล การทราบคาร์บอนฟุตพรินต์ขององค์กรหรือบุคคลช่วยให้เราเข้าใจถึงผลกระทบที่มีต่อสิ่งแวดล้อม การวิเคราะห์ข้อมูลที่เกี่ยวข้องสามารถนำมาใช้ในการระบุแหล่งที่มาของการปล่อยก๊าซเรือนกระจกและกำหนดมาตรการลดการปล่อยได้อย่างมีประสิทธิภาพ เช่น การใช้เทคโนโลยีในการตรวจสอบและบันทึกข้อมูลการปล่อยก๊าซแบบเรียลไทม์ ซึ่งจะช่วยให้การตัดสินใจเกี่ยวกับการลดคาร์บอนมีความแม่นยำมากยิ่งขึ้น​ (MIT News)​ (Ecosystem Marketplace). กรณีศึกษาการประเมินคาร์บอนฟุตพรินต์ วิธีการเริ่มต้นประเมินคาร์บอนฟุตพรินต์ การเริ่มต้นประเมินคาร์บอนฟุตพรินต์ควรเริ่มจากการเก็บรวบรวมข้อมูลเกี่ยวกับการใช้พลังงาน การขนส่ง และการบริโภคทรัพยากร จากนั้นใช้เครื่องมือหรือซอฟต์แวร์เฉพาะทางในการคำนวณคาร์บอนฟุตพรินต์เบื้องต้น เพื่อหาแนวทางในการลดการปล่อยก๊าซเรือนกระจก การลดคาร์บอนฟุตพรินต์เมื่อพบว่ามีการปลดปล่อยสูง หากพบว่ามีการปล่อยคาร์บอนในระดับสูง สิ่งที่ควรทำคือการวิเคราะห์แหล่งที่มาของการปล่อยก๊าซเรือนกระจก และพิจารณามาตรการลด เช่น การปรับปรุงประสิทธิภาพการใช้พลังงาน การใช้พลังงานหมุนเวียน และการเข้าร่วมโครงการฟื้นฟูป่าเพื่อชดเชยคาร์บอน คาร์บอนเครดิตและการชดเชยคาร์บอน (carbon offset) คาร์บอนเครดิตช่วยให้เกิดการชดเชยการปล่อยก๊าซเรือนกระจกผ่านโครงการการชดเชยคาร์บอน เช่น การปลูกป่าและการใช้พลังงานหมุนเวียน การทำให้เกิดความเป็นกลางทางคาร์บอน (carbon neutrality) มีข้อท้าทายหลายประการ เช่น ความซับซ้อนในการตรวจสอบและความน่าเชื่อถือของโครงการ offset​ (Ecosystem Marketplace)​ (PERSPECTIVES) ตัวอย่างกิจกรรมที่ทำให้เกิดคาร์บอนเครดิต ตัวอย่างของกิจกรรมที่ทำให้เกิดคาร์บอนเครดิต เช่น การปลูกป่าเพื่อฟื้นฟูพื้นที่ที่ถูกทำลาย การพัฒนาพลังงานหมุนเวียนในระดับท้องถิ่น และการสนับสนุนโครงการฟื้นฟูธรรมชาติในพื้นที่ที่มีความเสี่ยงสูง​ (PERSPECTIVES). ข้อมูลกับบทบาทสำคัญในการบริหารจัดการการปลดปล่อยคาร์บอน ในยุคที่ข้อมูลเป็นทรัพยากรที่มีค่า การนำข้อมูลมาใช้ในการบริหารจัดการการปลดปล่อยคาร์บอนมีบทบาทสำคัญอย่างยิ่ง การรวบรวม วิเคราะห์ และประยุกต์ใช้ข้อมูลที่เกี่ยวข้องกับการปลดปล่อยคาร์บอนสามารถช่วยให้องค์กรหรือบุคคลเข้าใจแหล่งที่มาของการปลดปล่อยก๊าซเรือนกระจก และนำไปสู่การวางแผนและดำเนินการเพื่อลดคาร์บอนฟุตพรินต์ได้อย่างมีประสิทธิภาพ การใช้งานข้อมูลอย่างเหมาะสมจะช่วยในการประเมินคาร์บอนฟุตพรินต์ ทำให้เราสามารถระบุแหล่งที่มาของการปลดปล่อยคาร์บอนที่สำคัญที่สุด และหาแนวทางลดคาร์บอนฟุตพรินต์ได้อย่างตรงจุด นอกจากนี้ ข้อมูลยังเป็นพื้นฐานในการบริหารจัดการคาร์บอนเครดิต ช่วยสร้างความโปร่งใสในระบบการซื้อขายคาร์บอนเครดิต และช่วยให้องค์กรหรือบุคคลสามารถสร้างการชดเชยคาร์บอน (carbon offset) และบรรลุความเป็นกลางทางคาร์บอน (carbon neutrality) ได้ ประโยชน์ของการใช้ข้อมูลในการบริหารจัดการการปลดปล่อยคาร์บอนไม่เพียงแต่ช่วยลดผลกระทบต่อสิ่งแวดล้อม แต่ยังช่วยสร้างความน่าเชื่อถือและภาพลักษณ์ที่ดีต่อองค์กร อีกทั้งยังเป็นการเตรียมพร้อมรับมือกับกฎหมายและมาตรฐานด้านสิ่งแวดล้อมที่เข้มงวดมากขึ้นในอนาคต นอกจากนี้ การใช้งานข้อมูลในการจัดการคาร์บอนยังเปิดโอกาสให้องค์กรหรือบุคคลสามารถเข้าร่วมในโครงการสร้างคาร์บอนเครดิตที่ช่วยส่งเสริมความยั่งยืนในระยะยาว จะเห็นได้ว่า ข้อมูลไม่เพียงแต่เป็นเครื่องมือที่ทรงพลังในการลดการปลดปล่อยคาร์บอน แต่ยังเป็นกุญแจสำคัญในการสร้างอนาคตที่ยั่งยืนสำหรับทุกคน ผู้เขียน ดร.พีรดล สามะศิริ, ChatGPT ตรวจทานโดย ดร.อิสระพงศ์ เอกสินชล
16 January 2025
หรือว่า AI จะไม่เก่งจริง!! - สาเหตุที่ทำให้ ​AI ยังไม่ถูกนำมาใช้ในชีวิตจริงมากเท่าที่ควร
ตั้งแต่การเรียนรู้เชิงลึก (Deep Learning) ถูกพัฒนาขึ้น ปัญญาประดิษฐ์ก็เข้ามามีบทบาทในชีวิตมนุษย์อย่างมาก ในหลายรูปแบบ ตั้งแต่ในแอปพลิเคชันบนสมาร์ตโฟน กล้องวงจรปิดที่ใช้ตามบ้าน แม้แต่โปรโมชันที่แบรนด์สินค้าเสนอให้กับเราในฐานะลูกค้าในหลายครั้งก็เป็นผลจากการใช้ปัญญาประดิษฐ์ เพื่อประมวลผลทางสถิติว่าโปรโมชันแบบไหนที่แต่ละคนจะตัดสินใจซื้อมากที่สุด ซึ่งในหลายครั้งมันก็ทำให้ลูกค้าจ่ายเงินซื้อสินค้าจากการแนะนำสินค้าได้ตรงใจ หรือแม้กระทั่งการแนะนำวิดีโอในแอปพลิเคชัน TikTok หรือ YouTube เพื่อดึงดูดความสนใจของผู้ใช้ให้รับชมคอนเทนท์ที่ชื่นชอบในระยะเวลาที่ยาวนานที่สุด โดยใช้เทคนิคต่าง ๆ อาทิเช่น Computer Vision เพื่อให้ระบบสามารถแยกแยะเนื้อหาของวีดีโอ และ Natural Language Processing ที่นำมาใช้แยกแยะเนื้อหาที่เป็นภาษา ( ai คือ อะไร ) ความสามารถของปัญญาประดิษฐ์ที่มนุษย์สร้างขึ้นถูกพัฒนาจนเริ่มที่จะเก่งกว่ามนุษย์ในหลายทักษะ หนึ่งในงานทดลองที่เป็นรู้จักคือการสอนให้คอมพิวเตอร์เล่นเกมเพื่อเอาชนะมนุษย์ หรือแม้กระทั่งในเกมที่ซับซ้อนอย่างหมากล้อม ก็สามารถเอาชนะมนุษย์ไปได้จนเป็นข่าวดังไปทั่วโลก จนในบางครั้งก็ทำให้เกิดความหวาดกลัวในปัญญาประดิษฐ์ว่ามันจะทำอะไรที่เป็นอันตรายต่อมนุษย์เหมือนกับในภาพยนตร์ชื่อดังหลายเรื่องหรือไม่ สื่อสังคมออนไลน์ถึงกับตื่นตระหนกกับข่าวที่ปัญญาประดิษฐ์ของ Facebook สร้างภาษาของตัวเองขึ้นมา และให้ความเห็นกันไปต่าง ๆ นานา ในฐานะของผู้ที่มีประสบการณ์วิจัยเกี่ยวกับปัญญาประดิษฐ์มา ผู้เขียนสามารถบอกได้อย่างมั่นใจว่า “ปัญญาประดิษฐ์จะยังไม่ครองโลกในเร็ว ๆ นี้แน่นอน” เพราะความเก่งกาจจากการเรียนรู้ข้อมูลของปัญญาประดิษฐ์นั้นยังมีข้อจำกัดอย่างมาก ตัวอย่างหนึ่งที่เห็นได้ชัดเจนคือการที่เทคโนโลยี Self-Driving Car อย่างเต็มรูปแบบ (ไม่นับระบบช่วยเหลือในการขับอย่าง Cruise Control) ถูกเคยถูกพูดถึงกันมาอย่างยาวนานในวงการวิจัยนั้น ในขณะที่เขียนบทความนี้ (ตุลาคม 2565) เทคโนโลยีนี้ถูกใส่เข้ามาในรถยนต์ของผู้ให้บริการเพียงไม่กี่รายที่มีความสามารถในการวิจัยเทคโนโลยีที่ล้ำสมัยอย่างเช่น Tesla ซึ่งก็ยังมีข้อจำกัดอยู่ และก็ยังมีรายงานการเกิดอุบัติเหตุอยู่บ้างเช่นกัน บทความนี้เราจะมาดูกันว่าข้อจำกัดอะไรบ้างที่ปัญญาประดิษฐ์ต้องก้าวข้ามไปให้ได้ และตัวอย่างของความอ่อนด้อยของปัญญาประดิษฐ์ในสิ่งที่เรื่องง่ายสำหรับมนุษย์ 1. Domain Shift – โมเดลเรียนรู้และเก่งในเรื่องที่มีข้อมูลเท่านั้น และประสิทธิภาพลดลงอย่างมากเมื่อสภาพแวดล้อมเปลี่ยนไป เป็นเรื่องจริงที่ปัญญาประดิษฐ์นั้นเรียนรู้จนเก่งในหลายเรื่อง แต่ความเก่งนั้นก็จำกัดอยู่กับสิ่งแวดล้อมที่มันเคยเรียนรู้มาเท่านั้น เมื่อสภาพแวดล้อมเปลี่ยนไปจากเดิม ประสิทธิภาพในการทำงานและการตัดสินใจก็จะเปลี่ยนไปอย่างมาก ปัญหานี้เป็นที่รู้จักกันในหลายชื่อเรียก เช่น Domain Shift, Distribution Shift, และ Data Drift เป็นต้น ซึ่งต่างก็มีความหมายที่คล้ายกัน คือการที่โดเมน (ขอบเขต) ของข้อมูลที่ปัญญาประดิษฐ์รับเข้าระบบ (Input) เปลี่ยนแปลงไปจากเดิม ตัวอย่างเช่นถ้าเราให้โมเดลเรียนรู้ข้อมูลที่มีการแจกแจงแบบหนึ่ง แต่พอนำโมเดลไปใช้จริงกลับมีการแจกแจงอีกแบบหนึ่ง ดังที่เห็นจากในตัวอย่างภาพการแจกแจงด้านบน ก็จะมีความเสี่ยงสูงที่การนำไปใช้จริงจะลดประสิทธิภาพของโมเดลนี้ หรือในกรณีของข้อมูลภาพที่เป็นถนนและสภาพจราจร การที่ข้อมูลที่ใช้สอนปัญญาประดิษฐ์ส่วนมากจะถูกเก็บมาจากช่วงเวลากลางวัน ซึ่งสภาพแสงต่างจากกลางคืนอย่างชัดเจน เมื่อนำมาใช้ประมวลผลกับภาพที่ได้ในเวลากลางคืนก็มีแนวโน้มที่ความถูกต้องในการทำงานจะลดลง การสอนระบบด้วยภาพในเมือง แต่นำไปใช้กับภาพถนนในชนบท หรือแม้แต่ในเงามืดที่แสงน้อยเองก็เช่นกันตามภาพที่ด้านล่าง 2. Catastrophic Forgetting – เรียนเรื่องใหม่ ลืมเรื่องเก่า การแก้ปัญหาในข้อที่ 1 แบบง่าย ๆ ก็คือการนำเอาข้อมูลในสิ่งแวดล้อมปัจจุบันที่ปัญญาประดิษฐ์พบเจออยู่ในขณะนั้นมาสอนระบบในทันที เพื่อให้มันสามารถปรับตัวกับสภาพแวดล้อมใหม่ ซึ่งก็สร้างปัญหาใหม่ขึ้นมาถึง 2 เรื่อง เรื่องแรกคือบริษัทที่เป็นผู้ให้บริการก็ต้องจ้างคนมาเพื่อสร้าง Label (หรือก็คือเฉลยของคำถาม) ในการสอนปัญญาประดิษฐ์ ซึ่งในงานประเภท Semantic Segmentation จะพบว่าการสร้าง Label นั้นค่อนข้างยาก ใช้เวลานาน และนำมาซึ่งต้นทุนที่สูงขึ้น เรื่องที่สองที่จะเจอคือปัญหาที่เรียกว่า Catastrophic Forgetting หรือคือการเรียนเรื่องใหม่แล้วลืมเรื่องเก่า ปัญหานี้เกิดขึ้นเมื่อเรานำเอาข้อมูลใหม่เข้ามาสอนให้กับปัญญาประดิษฐ์เพื่อให้สามารถประมวลผลในโดเมนปัจจุบันได้ถูกต้อง แต่เมื่อนำโดเมนของข้อมูลเปลี่ยนกลับไปเป็นโดเมนเดิมในตอนต้น ความถูกต้องในการประมวลผลก็จะลดลง เพราะปัญญาประดิษฐ์ได้ทำการเรียนรู้กับข้อมูลในโดเมนใหม่และได้ลืมความรู้ในโดเมนเก่าไปแล้ว 3. Out-of-Distribution – ปัญญาประดิษฐ์มักไม่รู้ตัวว่าตนเองไม่มีความรู้ การใช้งานปัญญาประดิษฐ์ในโลกความเป็นจริงที่เป็นสิ่งแวดล้อมแบบเปิด (Open World) มักจะมีสิ่งที่ระบบไม่เคยเรียนรู้มาก่อนอยู่เสมอ โดยเฉพาะเมื่อพูดถึงโมเดลเพื่อการจำแนกประเภท (Classification Model) ที่ต้องระบุหมวดหมู่ (Class) ของการจำแนกที่ชัดเจนตั้งแต่ตอนที่นำข้อมูลมาเพื่อสอน ในขณะที่เมื่อนำเอาไปใช้จริงแล้วมักจะเจอกับข้อมูลที่อยู่ในหมวดหมู่ใหม่ที่ไม่เคยเรียนรู้มาก่อน สิ่งนี้เป็นเพราะในงานข้อมูลบางประเภท เช่น ภาพ หรือภาษา มีหมวดหมู่ที่ไม่แน่นอน เราไม่สามารถนำเอาทุกความเป็นไปได้ของข้อมูลมาสอนให้กับปัญญาประดิษฐ์ได้ หรือถ้าทำได้ เมื่อเวลาผ่านไปย่อมมีข้อมูลใหม่เกิดขึ้นอยู่เสมอ ดังนั้นการที่ระบบสามารถระบุได้เมื่อเจอข้อมูลที่แตกต่างออกไปจากเดิมนั้นเป็นสิ่งสำคัญมาก ถ้าเป็นปัญญาประดิษฐ์ที่ใช้แยกแยะสายพันธุ์สุนัขจากภาพ เมื่อผู้ใช้นำภาพของแมวหรือนกมาให้จำแนกสายพันธุ์ ก็ควรจะต้องบอกได้ว่าสิ่งนั้นไม่ใช่สุนัข หรือถ้ามีสายพันธุ์ใหม่ที่ไม่เคยเจอ ก็ควรจะบอกผู้ใช้ได้ว่าไม่รู้จักสายพันธุ์นั้น ในกรณีของระบบที่เป็น Self-Driving Car อาจจะมีการใช้ปัญญาประดิษฐ์ที่เรียนรู้วัตถุต่าง ๆ จากภาพ เมื่อเจอวัตถุหรือสิ่งมีชีวิตบนท้องถนนที่ไม่เคยเจอมาก่อน ก็ควรจะออกแบบให้สามารถส่งต่อความไม่มั่นใจดังกล่าวให้กับมนุษย์ ให้คนขับเป็นผู้ตัดสินใจเองว่าจะขับต่อไป หรือเลี่ยงเส้นทาง 4. Calibration – ค่าความมั่นใจของคำตอบควรจะบอกความน่าจะเป็นที่คำตอบนั้นจะถูกต้อง แน่นอนว่าไม่มีใครถูกเสมอ การทำนายหรือตอบคำถามของปัญญาประดิษฐ์นั้นก็เช่นเดียวกัน แต่ปัญหาก็คือ บ่อยครั้งที่พบว่าคำตอบของปัญญาประดิษฐ์ในงานจำแนกหมวดหมู่ (Classification) มักมาพร้อมกับค่าความมั่นใจที่มากเกินควร (ค่าความมั่นใจ หรือ Predicted Probability เป็นค่าที่คำนวณออกมากับคำตอบ) ถ้าค่าความมั่นใจถูกต้อง เมื่อจำเอาตัวอย่างที่โมเดลมีค่าความมั่นใจที่ 0.8 หรือ 80% ทั้งหมดมา เราควรจะพบว่าคำตอบควรจะถูกต้องอยู่ที่ 80% จากข้อมูลทั้งหมดด้วยเช่นกัน ตัวอย่างเช่นปัญญาประดิษฐ์ที่ใช้จำแนกสายพันธุ์สุนัขจากภาพ ถ้าเราพบว่ามีภาพสุนัขทั้งหมด 1,000 ภาพที่ถูกจำแนก พร้อมกับมีค่าความมั่นใจที่ 0.8 ทั้งหมด เราก็ควรจะคาดหวังได้ว่าการจำแนกจะถูกต้องประมาณ 800 ภาพ หรือก็คือ 80% ค่าความมั่นใจดังกล่าวย่อมส่งผลต่อการตัดสินใจเชื่อหรือไม่เชื่อคำตอบนั้น และการกระทำต่าง ๆ ที่ตามมาจากข้อสรุปนั้นทั้งหมด ถ้าโมเดลทำนายหุ้นบอกว่าหุ้น A จะขึ้นด้วยความมั่นใจ 70% เราก็อาจจะลงทุนด้วยจำนวนเงินที่น้อย แต่ลงเงินกับหุ้น B ที่โมเดลบอกว่าขึ้น 95% เป็นต้น อย่างไรก็ดีจากการศึกษาพบว่าปัญญาประดิษฐ์สมัยใหม่ที่ใช้ Deep Neural Network ที่มีชั้นและความซับซ้อนมาก มักพบว่าให้ค่าความมั่นใจที่ไม่ตรงกับอัตราความถูกต้องของคำตอบจริง 5. Explainability – ตัดสินใจแล้วควรจะต้องอธิบายได้ว่าเพราะอะไร เมื่อเราใช้ปัญญาประดิษฐ์ตัดสินใจบางอย่างแล้วเกิดผลที่ตามมา ซึ่งอาจเป็นสิ่งที่ไม่พึงประสงค์สำหรับบางคน เช่น เมื่อสแกนใบหน้าไม่ผ่านทำให้เข้าประตูไม่ได้ หรือปัญญาประดิษฐ์ประเมินราคารถยนต์จากภาพถ่ายตีราคาออกมาต่ำกว่าที่ผู้เสนอขายคาดหวัง เป็นต้น สิ่งเหล่านี้ควรสามารถอธิบายเหตุผลของการทำนายนั้นได้ด้วย การสแกนใบหน้าที่ไม่ผ่านอาจเป็นเพราะผู้ใช้ลืมถอดแว่นกันแดด ระบบก็อาจจะบอกเหตุผลเพื่อให้ปรับปรุงและลองอีกครั้ง ยิ่งความซับซ้อนมีมากขึ้นเท่าไหร่ ความยากในการอธิบายเหตุผลก็มีมากขึ้นเรื่อย ๆ ในความเป็นจริงแล้วระบบสามารถอธิบายออกมาได้เพียงระดับเบื้องต้น เช่นในกรณีของข้อมูลภาพ อาจจะมีการทำ Heatmap บอกว่าส่วนไหนของภาพที่ส่งผลต่อการตัดสินใจ แต่ก็ไม่สามารถบอกเป็นเหตุผลมาอย่างชัดเจนได้ว่าเพราะอะไร ในกรณีที่ระบบมีการตัดสินใจที่ส่งผลต่อความปลอดภัยของผู้ใช้อย่าง Self-Driving Car การตัดสินใจบางอย่างที่นำมาซึ่งความผิดพลาดและอาจทำให้เกิดการสูญเสียทรัพย์สิน หรืออาจถึงขั้นเสียชีวิต การอธิบายได้ว่าระบบตัดสินใจอะไร เพราะอะไร ช่วยเพิ่มความมั่นใจของผู้ใช้ระบบ เพราะจะทำให้มั่นใจได้ว่าการตัดสินใจต่าง ๆ นั้นอยู่บนหลักการและเหตุผลที่ถูกต้อง และมีส่วนสำคัญอย่างมากเมื่อต้องสืบหาสาเหตุของอุบัติเหตุที่อาจเกิดขึ้นอย่างไม่คาดคิด ปัญหาทั้งหมดที่เล่ามาทำให้การใช้งานปัญญาประดิษฐ์ในชีวิตจริงยังไม่แพร่หลายเท่ากับการที่นักวิเคราะห์เทรนด์ของอนาคตบอกไว้ นักวิจัยยังคงต้องใช้เวลาอีกสักพักเพื่อที่จะเข้าใจการทำงานของมันให้มากขึ้น และนำเสนอวิธีการที่จะทำให้ได้ผลลัพธ์ตามที่ต้องการ ซึ่งวิธีการนั้นอาจนำมาซึ่งการใช้ทรัพยากรมนุษย์ในการพัฒนาปัญญาประดิษฐ์ที่มากขึ้น หรือทรัพยากรคอมพิวเตอร์เพื่อการประมวลผล ซึ่งอาจต้องใช้เงินจำนวนมหาศาลในการเอาชนะปัญหาเหล่านี้ ผู้เขียนในฐานะอดีตนักวิจัยก็ยังติดตาม เอาใจช่วย และคาดหวังให้เทคโนโลยีปัญญาประดิษฐ์นั้นก้าวหน้าขึ้นในทุกวัน ด้วยความเชื่อที่ว่ามันจะมาช่วยทำให้ชีวิตมนุษย์ดีขึ้นได้ในอนาคต เนื้อหาโดย อิงครัต เตชะภาณุรักษ์ตรวจทานและปรับปรุงโดย พีรดล สามะศิริ
4 November 2022
AI คือคำตอบต่อปัญหาการเปลี่ยนแปลงสภาพภูมิอากาศของอาร์กติกหรือไม่?
โครงการ AI ของ ASU AI วิเคราะห์ข้อมูลขนาดใหญ่ เพื่อช่วยให้นักวิเคราะห์ค้นพบวิธีการแก้ปัญหาโลกร้อนที่อาร์กติก ( AI แก้ปัญหาโลกร้อน ) อาร์กติกกำลังเผชิญวิกฤตทางภูมิอากาศจากการคุกคามของผู้คนในบริเวณนั้นและบริเวณอื่น ๆ ทั่วโลก แม้ว่าเราจะมีวิธีแก้วิกฤตนี้โดยใช้วิธีแก้ปัญหาที่ใช้กันทั่วโลกก็ตาม แต่วิธีเหล่านั้นก็เหมือนจะไม่สามารถทำได้ เป็นเวลาหลายปีมาแล้วที่ดาวเทียมและโดรนได้เก็บข้อมูลทางวิทยาศาสตร์จำนวนมากมายจากพื้นที่อาร์กติกที่ห่างไกลและไม่ได้รับการสำรวจ แต่ปัญหาคือการเก็บข้อมูลเหล่านี้มาเป็นเวลาหลายปีทำให้เรามีข้อมูลมากเกินไป และแทบจะเป็นไปไม่ได้ที่จะตีความข้อมูลเหล่านั้นออกมาได้อย่างมีประสิทธิภาพ ซึ่งหนึ่งในอาจารย์ของมหาวิทยาลัยแอริโซนาสเตต (Arizona State University, ASU) มีความหวังที่จะเปลี่ยนแปลงเรื่องนี้ ในเดือนสิงหาคม เวนเวน ลี (Wenwen Li) กับหุ้นส่วนของเธอได้รับเงินวิจัยจำนวน 1 ล้านดอลลาร์สหรัฐ เพื่อช่วยให้นักวิทยาศาสตร์ได้เรียนรู้ที่จะใช้ปัญญาประดิษฐ์ในการแก้ปัญหาภัยพิบัติที่กำลังจะเกิดขึ้นที่อาร์กติก และลีก็เป็นหัวหน้าคณะนักวิจัยในโครงการดังกล่าว  “ปัญหาที่อาร์กติกนั้นถือว่าเป็นปัญหาที่ต้องได้รับการแก้ไขอย่างเร่งด่วนมาก” ลีกล่าว เธอคือนักวิทยาศาสตร์ข้อมูลที่ได้รับการอบรมในเรื่องวิทยาการคอมพิวเตอร์และวิทยาศาสตร์โลกทั้งระบบ (Earth System Science) ที่ ASU “เราต้องแก้ไขปัญหาให้เร็วที่สุดเท่าที่เราสามารถทำได้” ข้อมูลขนาดใหญ่ ลี อาจารย์แผนก ภูมิศาสตร์วิทยาและการวางผังเมือง ของ ASU ได้กล่าวไว้ว่า การวิเคราะห์ข้อมูลขนาดใหญ่ในเชิงวิทยาศาสตร์เป็นเรื่องที่ท้าทายเป็นอย่างมาก และเราอาจจะประเมินการวิเคราะห์ดังกล่าวไว้ต่ำเกินไป จากคลังข้อมูลการเปลี่ยนแปลงสภาพภูมิอากาศของ NASA ถูกประมาณการณ์ว่าจะมีข้อมูลปริมาณกว่า 350 เพตะไบต์ภายในปี 2030 หรือเทียบได้กับจำนวนหน้ากระดาษพร้อมข้อความแบบไม่มีบรรทัดว่าง 10 ล้านหน้า และบริษัทดาวเทียม MaxarTechnologies จะมีภาพถ่ายทั่วโลกมากกว่า 125 เพตะไบต์ ซึ่งนั่นก็เทียบได้กับจำนวนจดหมายที่ไปรษณีย์สหรัฐทำการจัดส่งเป็นเวลากว่า 25 ปี ปัญหาที่ได้กล่าวไปนั้น เป็นเพียงแค่ส่วนหนึ่งของปัญหาอีกมากมาย ยังมีอีกองค์ประกอบหนึ่งนั่นก็คือ การที่รวบรวมข้อมูลในปริมาณมากและนำมาวิเคราะห์ เพื่อหาชุดข้อมูลที่นักวิทยาศาสตร์ต้องการมากที่สุด เพราะ ณ ตอนนี้เครื่องคอมพิวเตอร์ที่เหล่านักวิทยาศาสตร์ในอาร์กติกใช้อยู่นั้น ไม่มีศักยภาพมากพอที่จะเก็บรวมและตีความข้อมูลในปริมาณมากขนาดนั้นได้ ซึ่งการตีความข้อมูลเป็นสิ่งจำเป็นยิ่งเพื่อแก้ไขปัญหาที่อาร์กติกกำลังเผชิญ ลี ผู้อำนวยการห้องแล็บ โครงสร้างพื้นฐานทางไซเบอร์และปัญญาประดิษฐ์ ที่วิทยาเขต Tempe ของ ASU ได้กล่าวไว้ว่า “ข้อมูลเพียงอย่างเดียวไม่สามารถช่วยอะไรได้ เพราะสิ่งที่เราต้องการคือความสามารถในการวิเคราะห์ข้อมูลปริมาณมหาศาล เพื่อให้ได้องค์ความรู้ทางวิทยาศาสตร์ที่มีที่มีประโยชน์ โดยการที่จะทำสิ่งนี้ได้นั้นจำเป็นต้องใช้ปัญญาประดิษฐ์เข้ามาช่วย อย่างไรก็ดีนักวิทยาศาสตร์ในอาร์กติกหลายคนไม่มีความสามารถในการใช้ปัญญาประดิษฐ์ได้” ลีกับหุ้นส่วนของเธอตั้งเป้าจะใช้เงินทุนวิจัยเพื่อพัฒนาโปรแกรมอบรมด้านไซเบอร์สำหรับนักวิทยาศาสตร์ในอาร์กติก และบุคลากรจากแผนกอื่น ๆ เพื่อทำให้พวกเขาสามารถเข้าถึง ศึกษา และตีความข้อมูลจำนวนมากที่ซับซ้อนเหล่านี้ได้ด้วยการใช้งานปัญญาประดิษฐ์ โครงการดังกล่าวนี้มีชื่อว่า “Cyber 2A: CyberTraining on AI-driven Analytics for Next Generation Arctic Scientists” โดยโครงการจะเริ่มตั้งแต่เดือนมีนาคมปี ค.ศ. 2023 ไปจนถึงเดือนกุมภาพันธ์ปี ค.ศ. 2026 ลียังกล่าวอีกว่า “วิธีการที่ทันสมัยผ่านการนำเทคโนโลยีปัญญาประดิษฐ์เข้ามาช่วยนั้น จะทำให้นักวิทยาศาสตร์ในอาร์กติกมีโอกาสค้นพบสิ่งใหม่ ๆ เพิ่มขึ้น ทำให้เราทราบแน่ชัดว่า จริง ๆ แล้วกำลังเกิดอะไรขึ้นในอาร์กติกกันแน่” ซึ่งงานนี้เป็นการร่วมมือกันระหว่าง 4 หน่วยงาน ได้แก่ มหาวิทยาลัยแอริโซนาสเตท มหาวิทยาลัยแคลิฟอร์เนียที่แซนตาบาร์บารา มหาวิทยาลัยอิลลินอยส์เออร์บานาแชมเปญ และศูนย์วิจัยสภาพภูมิอากาศวูดเวลล์ ซึ่งภายในทีมวิจัยนั้นจะประกอบไปด้วยผู้เชี่ยวชาญในด้านต่าง ๆ ไม่ว่าจะเป็นด้านโครงสร้างพื้นฐานทางไซเบอร์ ด้านการประมวลผลประสิทธิภาพสูง ด้านปัญญาประดิษฐ์และด้านวิทยาศาสตร์อาร์กติก ( AI แก้ปัญหาโลกร้อน ) ปัญหาของขั้วโลก รายงานจากสถาบันอุตุนิยมวิทยาของฟินแลนด์ได้ระบุว่า ตั้งแต่ปี 1979 การเปลี่ยนแปลงสภาพภูมิอากาศและภาวะโลกร้อนบริเวณอาร์กติกได้เกิดขึ้นในอัตราที่รวดเร็วมาก ถ้าเทียบกับบริเวณอื่นของโลกแล้ว ที่อาร์กติกเกิดมากกว่าบริเวณอื่น ๆ มากถึง 4 เท่าเลยทีเดียว การละลายของน้ำแข็งในอาร์กติกที่มีพื้นที่ประมาณ 177.6 พันล้านตารางฟุตนั้นส่งผลกระทบอย่างมากต่อโครงสร้างของโลก เพราะตอนนี้โครงสร้างชั้นดินเยือกแข็งคงตัว (Permafrost) กำลังทรุดตัวลง โครงสร้างพื้นฐานของโลกที่ไม่มั่นคงนี้ ส่งผลกระทบกับทุกสิ่ง ตั้งแต่เศรษฐกิจไปจนกระทั่งการใช้ชีวิตอย่างการหาอาหารหรือการรักษาที่อยู่ของสัตว์ในบริเวณนั้น เช่น หมีขั้วโลก วอลรัส สุนัขจิ้งจองอาร์กติก กวางคาริบู เป็นต้น ไม่เพียงเท่านี้เมื่อน้ำแข็งหายไป การสะท้อนของแสงอาทิตย์ก็หายไปด้วย ทำให้พลังงานจากดวงอาทิตย์ถูกกักเก็บไว้ที่โลกมากขึ้น นอกจากนี้ การละลายของน้ำแข็งยังปล่อยสารมีเทนหรือแก๊สเรือนกระจกด้วย ซึ่งนำไปสู่ภาวะโลกร้อน และหากยังมีการละลายของน้ำแข็งอย่างต่อเนื่อง อีกไม่นานเราอาจจะได้เห็นจุดจบของแดนน้ำแข็งนี้ Nature Climate Change ได้คาดการณ์ไว้ว่า ภายในปี 2040 จะไม่มีน้ำแข็งในอาร์กติกอีกต่อไป และเนื่องจากปริมาณน้ำแข็งในอาร์กติกนั้นมีส่วนสำคัญอย่างมากในการควบคุมสภาพภูมิอากาศของโลก การที่ไม่เหลือน้ำแข็งในอาร์กติกย่อมส่งผลกระทบร้ายแรงกับทุกบริเวณทั่วโลก นักวิทยาศาสตร์ นักธรณีวิทยาและผู้เชี่ยวชาญอื่น ๆ ที่กำลังศึกษาปัญหาเหล่านี้อยู่นั้น ไม่มีกำลังมากพอที่จะติดตามและรับมือกับการละลายของน้ำแข็งในอาร์กติก รวมถึงข้อมูลที่เกี่ยวข้องกับเรื่องดังกล่าวได้ ทำให้ผู้ออกนโยบายไม่สามารถนำข้อมูลเหล่านี้มาตัดสินใจในการออกนโยบายป้องกันภาวะโลกร้อนแบบเร่งด่วน ทีมวิจัยรับมือกับความท้าทาย และจุดนี้แหละ ที่จะเป็นจุดที่ทีมของลีเข้ามามีบทบาท เงินทุนในการวิจัยนี้จะช่วยให้นักวิทยาศาสตร์ได้รับการอบรมด้านการวิเคราะห์ที่เกี่ยวกับ AI เพื่อนำความรู้มาคาดการณ์การเปลี่ยนแปลงตามเวลาจริงได้อย่างแม่นยำ และท้ายที่สุดเราก็จะพบวิธีการแก้ปัญหาภาวะโลกร้อนและการเปลี่ยนแปลงของสภาพภูมิอากาศในอาร์กติก การอบรมนี้จะมีทั้งรูปแบบการเรียนในห้องเรียนทั่วไป การเรียนในออนไลน์ และเปิดเป็นคอร์สผ่านเว็บบินาร์รายเดือน โดยเปิดให้กับทั้งนักวิทยาศาสตร์และนักการศึกษา นอกจากนี้ยังมีการสร้างเครือข่ายวิจัยอาร์กติก AI สำหรับแบ่งปันไอเดียและแหล่งข้อมูลต่าง ๆ เนื้อหาการอบรมทั้งหมดจะถูกเก็บไว้ใน Learning Hub ของศูนย์ข้อมูลอาร์กติก เพื่อให้นักวิทยาศาสตร์ ผู้เชี่ยวชาญ และผู้พัฒนาสามารถเข้าถึงข้อมูลวิทยาศาสตร์อาร์กติก ธรณีศาสตร์ และข้อมูลที่สำคัญอื่น ๆ ได้ การร่วมมือจากทุกฝ่ายเป็นอีกหนึ่งความพยายามสำคัญ นำไปสู่การทำแผนสรรหาบุคคลเพื่อสร้างแรงงานนักวิจัย STEM ที่มีประสิทธิภาพและหลากหลาย โดยเปิดโอกาสให้กับทุกคนไม่ว่าจะเป็น กลุ่มคนที่เสียเปรียบทางเศรษฐกิจ สตรี สมาชิกชุมชนชาวพื้นเมืองอาร์กติกและอีกมากมาย “เงินทุนการอบรมด้านปัญญาประดิษฐ์จะช่วยเพิ่มทักษะให้กับเหล่านักวิจัยอาร์กติกและผู้นำรุ่นใหม่ในการนำข้อมูลทั้งหมดที่ถูกเก็บรวบรวมไว้มาใช้ให้เกิดประโยชน์สูงสุดได้” อันนา ลิเลียดาห์ล ผู้ร่วมตรวจสอบหลักของโครงการจากศูนย์วิจัยสภาพภูมิอากาศวูดเวลล์กล่าว “มีข้อมูลเพียงไม่ถึงหยิบมือเดียวที่ประมวลผลมาเกือบทศวรรษหลังจากถูกเก็บรวบรวมมา นั่นคือการดำเนินการของวิทยาศาสตร์ในปัจจุบันเท่าที่ทำได้” และสุดท้าย ลีกับเพื่อนร่วมงานหวังว่าจะทำหน้าที่ของตนให้ดีที่สุดในการฟื้นฟูสภาพแวดล้อมส่วนหนึ่งของใบนี้ ( AI แก้ปัญหาโลกร้อน ) บทความโดย Dolores Tropianoเนื้อหาจากบทความของ Arizona State Universityแปลและเรียบเรียงโดย ไอสวรรค์ ไชยชะนะตรวจทานและปรับปรุงโดย พีรดล สามะศิริ
31 October 2022
จะดึงข้อมูลบน CKAN เข้า Power BI อย่างไร
เราจะนำข้อมูลบนแคตตาล็อกมาใช้เพื่อการวิเคราะห์ผ่านการ visualize บนแดชบอร์ดได้อย่างไร
15 September 2022
แนวทางการปฏิบัติที่ดีที่สุด สำหรับการวัดความสำเร็จในการลงทุนด้านดิจิทัล (Digital Transformation)
ในยุคปัจจุบันที่แต่ละองค์กรต่างโฟกัสที่การลงทุนในการเปลี่ยนองค์กรแบบเดิม ๆ ให้กลายเป็นองค์กรดิจิทัล สิ่งสำคัญที่ควรให้ความสนใจเป็นอย่างยิ่งคือการสร้างโครงร่างที่ชัดเจนสำหรับการวัดผลความสำเร็จของ การลงทุนด้านดิจิทัล การเปลี่ยนแปลงสู่ดิจิทัล (Digital-Transformation) นั้นมีด้วยกันหลายองค์ประกอบ อาจเริ่มตั้งแต่การเปลี่ยนแปลงด้านกระบวนการและโมเดลธุรกิจไปจนถึงการเปลี่ยนแปลงด้านวัฒนธรรมและพัฒนาองค์กร การวิเคราะห์เพื่อวัดระดับความสำเร็จการลงทุนด้านดิจิทัลนั้นคำนวณจากดัชนีชี้วัดความสำเร็จ (KPI) ซึ่งบ่งชี้การทำกำไรที่เกิดขึ้นสืบเนื่องจากการลงทุนเพื่อการเปลี่ยนแปลงสู่ดิจิทัลเป็นหลัก ซึ่งการวิเคราะห์เหล่านี้จะช่วยรับรองได้ว่าการลงทุนดังกล่าวจะได้รับผลตอบแทนไม่ต่ำกว่าที่ได้คาดการณ์ไว้ในตอนแรก อย่างไรก็ตาม เมื่อไม่นานมานี้ได้มีการจัดทำแบบสำรวจผู้บริหารระดับ C ทั่วโลกโดย EY-Parthenon ซึ่งได้เปิดเผยว่าในขณะที่บริษัทต่าง ๆ ลงทุนด้านเทคโนโลยีมากขึ้นเป็นสองเท่า แต่พวกเขากลับประสบปัญหาในการวางแผนกลยุทธ์การลงทุนด้านดิจิทัลที่ชัดเจน วิธีการกำกับดูแลแบบศูนย์กลาง ในบรรดาผู้ที่ประสบความสำเร็จนั้น พวกเขามักเลือกใช้วิธีกำกับดูแลแบบเข้าสู่ศูนย์กลางในการจัดการกับผลประโยชน์และค่าใช้จ่ายที่เกี่ยวข้อง อีกทั้งกลุ่มผู้นำเหล่านี้ยังได้พัฒนาโปรแกรมทางการเพื่อใช้ระบุ วัดค่า และรายงานผลลัพธ์การลงทุนทางด้านดิจิทัลอีกด้วย “ปัญหาหลักที่คุณต้องคำนึงคือคุณจะจัดสรรเงินทุนเพื่อทำการเปลี่ยนแปลงสู่ดิจิทัลได้อย่างไร และคุณจะวัดผลตอบแทนการลงทุนได้อย่างไร” Laura McGarrity (ลอรา แม็คแกร์ริที้) หัวหน้าฝ่ายนวัตกรรมดิจิทัลของ EY-Parthenon และหนึ่งในผู้เขียนรายงานกล่าว “ถ้าคุณบอกว่าคุณจะได้รับผลตอบแทนคืน 5 เท่า คุณจะแน่ใจได้อย่างไรว่าคุณได้นำผลตอบแทนนั้นกลับคืนสู่ธุรกิจจริง ๆ” เธอยังบอกอีกว่าผู้มีส่วนได้ส่วนเสียทุกคน ตั้งแต่ CEO ลงไปจนถึงหน่วยธุรกิจรายย่อย ต้องเข้าใจชัดเจนเกี่ยวกับตัวชี้วัดที่จะช่วยขับเคลื่อนผลตอบแทนการลงทุนนั้น “สิ่งสำคัญคือคุณต้องรู้ว่าคุณกำลังพยายามทำอะไรให้สำเร็จ” McGarrity กล่าว “มันจะมีประโยชน์ต่อคุณอย่างยิ่งในระยะยาวถ้าคุณสามารถสร้างทะเลสาบข้อมูล (Data Lake) ที่สมบูรณ์ ที่ทำให้คุณสามารถเก็บสะสมข้อมูลที่คุณรวบรวมมาได้ครบถ้วนสมบูรณ์ รวมถึงทำให้คนในองค์กรสามารถเข้าถึงและเข้าใจข้อมูลเหล่านั้น ซึ่งจะทำให้พวกเข้าสามารถนำข้อมูลไปใช้ได้อย่างมีประสิทธิภาพ” กรอบการกำกับดูแลด้านดิจิทัล (Digital Governance Framework) การมี “โครงร่าง” สำหรับการกำกับดูแลด้านดิจิทัลที่ออกแบบมาอย่างดีนั้นเป็นสิ่งที่จำเป็นอย่างยิ่ง ซึ่งต้องครอบคลุมถึงการกำหนดผู้ที่มีอำนาจในการตัดสินใจและระบุผู้รับผิดชอบหรือเจ้าของโครงการที่ชัดเจนด้วยเช่นกัน โครงร่างดังกล่าวยังต้องสามารถรองรับการเปลี่ยนแปลงที่ต่อเนื่อง ทั้งในด้านของอำนาจการบริหารจัดการการเปลี่ยนสู่องค์กรดิจิทัล และการสนับสนุนหลักการในการเพิ่มยอดขาย ลดค่าใช้จ่าย การทำตามข้อกำหนด และการควบคุมความเสี่ยงอีกด้วย “สิ่งสำคัญคือการใช้กรอบการกำกับดูแลเข้ามาช่วย เพื่อให้แน่ใจว่าการเปลี่ยนแปลงสู่องค์กรดิจิทัลนั้นจะได้รับการสนับสนุน และไม่ถูกปิดกั้น” Rich Quattrocchi (ริช ควาททรอชชี) รองประธานฝ่ายการเปลี่ยนแปลงสู่ดิจิทัลของ Mutare วิสาหกิจการสื่อสารและผู้ให้บริการด้านความปลอดภัยกล่าว “การจัดสรรเงินทุนควรทำควบคู่ไปกับอัตราผลตอบแทนขั้นต่ำจากการลงทุนของวิสาหกิจเพื่อความรวดเร็วในการออกสู่ตลาด การเปลี่ยนแปลงสู่ดิจิทัลก็เช่นกัน” จากมุมมองของริช การสร้างความสมดุลระหว่างสองสิ่งเป็นเรื่องที่จำเป็น โดยเราต้องหาจุดสมดุลระหว่างคำว่า “สมบูรณ์แบบ” และคำว่า “ดีพอผ่าน” เพราะสองคำนี้เป็นศัตรูตัวฉกาจของกันและกัน “โครงการที่สนับสนุนพันธกิจ กลยุทธ์ และนโยบายที่ให้ผลกำไรตอบแทนสูงสุด ควรจะดึงดูดการลงทุนที่มากขึ้น” เขากล่าว “โดยคำนึงว่าความเร็วคือข้อได้เปรียบทางธุรกิจ ดังนั้นความพยายามในการเปลี่ยนแปลงสู่ดิจิทัลจึงต้องรวดเร็วด้วยเช่นกัน  ใช่ว่าทุกการเดิมพันจะสำเร็จเสมอไป ดังนั้นถ้าเปรียบเทียบการลงทุนเป็นที่ดิน เราก็ไม่ควรเดิมพันที่ดินทั้งหมดแค่กับที่ดินแปลงใหญ่แปลงเดียว แต่ควรลองเดิมพันทีละไร่สองไร่หลาย ๆ ที่” การมีผู้ที่มีส่วนได้ส่วนเสียที่หลากหลายเป็นเรื่องสำคัญ การวัดผลตอบแทนด้านดิจิทัลของผู้มีส่วนได้ส่วนเสียจะขึ้นอยู่กับโครงสร้างของการเปลี่ยนแปลงสู่ดิจิทัล โดยผู้มีส่วนได้ส่วนเสียที่เกี่ยวข้องจะมีตั้งแต่ผู้บริหารระดับ C หน่วยธุรกิจหลัก ทีมงานปฏิบัติการไปจนถึงทีมงานสนับสนุน และเนื่องจากผู้มีส่วนได้ส่วนเสียนั้นมีหลายฝ่าย ดังนั้นผู้มีส่วนได้ส่วนเสียหลักจึงควรเป็นคนที่รับผิดชอบต่อการทำให้ผลกำไรดีขึ้น “ประเด็นทั้งหมดของการเปลี่ยนแปลงสู่ดิจิทัลคือเพื่อเพิ่มยอดขาย ลดค่าใช้จ่าย ทำตามข้อกำหนด และลดความเสี่ยง” Quattrocchi กล่าว นอกจากนี้ McGarrity ยังเสริมอีกว่า CFO จะเป็นผู้มีส่วนได้ส่วนเสียหลักและเป็นผู้ที่ต้องอยู่หัวแถวเสมอ อีกทั้งยังต้องมีแผนที่จะใช้ในการลงทุนด้านการเปลี่ยนแปลงสู่ดิจิทัล เพื่อเตรียมพร้อมที่จะเพิ่มมูลค่าให้กับธุรกิจอยู่เสมอ “ถึงอย่างนั้นผู้มีส่วนได้ส่วนเสียหลักที่เกี่ยวข้องในการกำหนดตัวชี้วัดเหล่านี้ก็มีความหลากหลายตามแผนกและระดับชั้น” เธอกล่าวเสริม “เริ่มจากว่าใครเป็นคนผลักดันกลยุทธ์ด้านดิจิทัลสำหรับองค์กร ใช่ประธานเจ้าหน้าที่ฝ่ายกลยุทธ์ไหม? หรือเป็นประธานเจ้าหน้าที่ฝ่ายดิจิทัล? โดยทั่วไปจะเป็นหนึ่งในสองตำแหน่งนี้” Rick Sbrocca (ริค สบรอคคา) CMO ของ MNJ Technologies ผู้ให้บริการการแก้ปัญหาด้านไอที เสริมว่า ขณะที่ไอทีแบบศูนย์กลางเป็นแหล่งรวมผู้นำของการเปลี่ยนแปลงสู่ดิจิทัล ผู้มีส่วนได้ส่วนเสียหลักระดับแผนกยิ่งมีส่วนเกี่ยวข้องมากกว่าที่เคยเป็นมา ตัวอย่างเช่น หัวหน้าฝ่ายขายและฝ่ายตลาดอาจต้องใช้ระบบ CRM หัวหน้าเจ้าหน้าที่ฝ่ายทรัพยากรบุคคลอาจต้องการเครื่องมืออัตโนมัติสำหรับงาน HR มากขึ้น และ CFO อาจต้องการ FinTech และการสนับสนุนด้านการวิเคราะห์ข้อมูล “กุญแจสู่ความสำเร็จคือข้อมูล” เขากล่าว “เพราะข้อมูลจะเป็นตัวขับเคลื่อนธุรกิจและการเข้าถึงข้อมูลที่ถูกต้องในเวลาที่เหมาะสมยิ่งมีความสำคัญมากขึ้นต่อผู้มีส่วนได้ส่วนเสียหลักทุกคน” วิธีปรับใช้การวัดผล Sbrocca อธิบายว่าสิ่งสำคัญที่ต้องคำนึงคือ เราต้องใช้ตัววัดผลความสำเร็จเดียวกันทั้งองค์กรธุรกิจ เช่น ผลตอบแทนการลงทุน (ROIC) กำไร ดัชนีความพึงพอใจและการมีส่วนร่วมของพนักงาน ซึ่งสามารถนำมาปรับใช้กับโครงการการเปลี่ยนแปลงสู่ดิจิทัลได้ “วิธีการและเทคโนโลยีสำหรับการวิเคราะห์ข้อมูลควรถูกกำหนดเป็นแต่ละกรณี ๆ ไปและมุ่งให้ความสำคัญไปที่เปอร์เซ็นต์การเติบโตของธุรกิจที่จะตามมา  รวมถึงผลลัพธ์ของทีมงานอีกด้วย” เขากล่าว เทคโนโลยีที่จะเข้ามามีบทบาทมากขึ้นได้แก่การย้ายข้อมูลไปสู่คลาวด์ การเพิ่มการรักษาความปลอดภัย การคิดค้น AI และกระบวนการหุ่นยนต์อัตโนมัติ (RPA) “ธุรกิจต่าง ๆ ควรพัฒนากลยุทธ์และแผนการกำกับดูแลด้านการเปลี่ยนแปลงสู่ดิจิทัลให้มากขึ้น ซึ่งทั้งหมดควรอยู่ภายใต้ภาพรวมของธุรกิจขององค์กรอีกทีหนึ่ง” Sbrocca เสริม นี่อาจรวมไปถึงการประเมินผลอย่างต่อเนื่องของเป้าหมายธุรกิจและหาจุดที่สามารถเพิ่มประสิทธิภาพได้มากขึ้น ตลอดจนการลงทุนด้านเวลาและทรัพยากรเพื่อทำการค้นคว้าวิจัยเครื่องมือที่มีอยู่เพื่อช่วยให้องค์กรบรรลุเป้าหมายให้สำเร็จได้ การวัดผลลัพธ์อาจเป็นปัญหา Quattrocchi ชี้ให้เห็นว่าธุรกิจหลายแห่งประสบปัญหากับการวัดผลลัพธ์ที่ได้จากการลงทุนด้านดิจิทัล เนื่องจากการวางแผนที่ไม่มีประสิทธิภาพและขาดการตั้งตัวชี้วัด (KPI) ก่อนที่จะเริ่มโครงการ “ขั้นตอนแรกของโครงการการเปลี่ยนแปลงสู่ดิจิทัลคือ การระบุปัญหาที่คุณกำลังจะแก้ไข ระบุ KPI หรือตัวชี้วัดที่คุณจะใช้เพื่อนิยามความสำเร็จ และการสร้างเครื่องมือที่ทำการวัดผล” เขากล่าว “การวัดผลควรปราศจากอคติ วัดปริมาณได้ สื่อสารอย่างโปร่งใส และที่สำคัญที่สุด ไม่ควรมีผลย้อนกลับมาหากล้มเหลว” อย่างไรก็ตาม หากการลงทุนเกิดล้มเหลว ก็ต้องล้มให้ไว เพื่อให้องค์กรสามารถเปลี่ยนทิศทางได้หากจำเป็น และสามารถเดินหน้าไปยังเป้าหมายต่อไปได้ McGarrity จาก EY-Parthenon แนะนำให้เริ่มจากการเพิ่มการปรับปรุงด้านดิจิทัลเพิ่มและการพัฒนาตัววัดที่มีประสิทธิภาพที่ทำให้เห็นความสำเร็จที่เกิดขึ้น “นี่หมายถึงการเข้าใจตัวชี้วัดที่คุณกำลังสร้างขึ้นในระยะสั้น ซึ่งแม้ว่ามันอาจจะเกี่ยวพันกับกลยุทธ์ของคุณในระยะยาว ที่ไม่ได้เพิ่มรายได้หรือส่งผลต่อการเปลี่ยนแปลงทันที” เธอกล่าว “คุณต้องยึดความเป็นจริงและบอกว่า ดูนี่ เราคิดว่าเราลดค่าใช้จ่ายได้ $500,000 หากเราทำกิจกรรมเฉพาะส่วนนี้ให้เป็นอัตโนมัติได้” เธอชี้ให้เห็นว่าไม่ใช่ว่าทุกความสำเร็จจะวัดได้ด้วยรายได้ และไม่ใช่ว่าทุกการลงทุนด้านดิจิทัลจะเห็นผลทันที “เป็นสิ่งสำคัญมากที่ต้องสื่อสารกลับไปยังผู้บริหาร” McGarrity กล่าว “นี่มันขึ้นอยู่กับการเริ่มต้นเล็ก ๆ และค่อย ๆ เรียนรู้ผ่านโอกาสที่เพิ่มเข้ามา” บทความโดย Nathan Eddyเนื้อหาจากบทความของ InformationWeekแปลและเรียบเรียงโดย ไอสวรรค์ ไชยชะนะตรวจทานและปรับปรุงโดย พีรดล สามะศิริ และนววิทย์ พงศ์อนันต์
29 July 2022
การจัดทำข้อมูลนิรนาม (Data Anonymization)
ด้วยเหตุที่ความเป็นส่วนตัวกำลังถูกให้ความสำคัญโดยเฉพาะบนโลกดิจิทัลที่ข้อมูลจากแต่ละปัจเจกมีการผลิต และเคลื่อนไหวอยู่ในทุกขณะ นำไปสู่การยกร่างพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ.2562 เพื่อปกป้องคุ้มครองความเป็นส่วนตัวของเจ้าของข้อมูลของแต่ละคนไม่ให้ถูกนำไปใช้ในแนวทางที่จะนำไปสู่การละเมิดความเป็นส่วนตัว (Privacy) ของเจ้าของข้อมูลส่วนบุคคล (Data Subject) อย่างไรก็ดีในมุมมองของผู้ประมวลผล หรือผู้ใช้ประโยชน์จากข้อมูลเพื่อการวิเคราะห์นั้น ย่อมหลีกเลี่ยงไม่ได้ที่จะต้องพัวพันกับข้อมูลที่เข้าข่ายเป็นข้อมูลส่วนบุคคล แล้วจะมีทางใดบ้างที่จะช่วยทำให้มั่นใจว่าแนวปฏิบัติของตนนั้นไม่สุ่มเสี่ยงต่อการละเมิดความเป็นส่วนตัวของเจ้าของข้อมูล? แนวปฏิบัติหนึ่งคือการทำให้ข้อมูลส่วนบุคคลเหล่านั้นกลายเป็นข้อมูลที่ไม่สามารถบ่งชี้ตัวบุคคลได้ หรือที่เรารู้จักกันในชื่อของกระบวนการทำให้เป็นนิรนาม (Anonymization) นักวิทยาศาสตร์ข้อมูล (Data Scientist) และผู้วิเคราะห์ข้อมูล (Data Analyst) หลายครั้งจำเป็นต้องมีการประมวลผลข้อมูลส่วนบุคคลเพื่อจะสามารถนำข้อมูลไปใช้ประโยชน์ในการวางแผนการดำเนินการในธุรกิจของหน่วยงาน ด้วยเหตุนี้การปกป้องคุ้มครองข้อมูลเหล่านี้ไม่ให้เสี่ยงต่อการรั่วไหล หรือโจรกรรม การรักษาความปลอดภัย (Security Control) ข้อมูลจึงเป็นสิ่งสำคัญ อย่างไรก็ดี ไม่มีการรักษาความปลอดภัยใดสามารถการันตีว่าจะไม่ถูกโจมตีได้ 100% จึงนำไปสู่หลักการการเก็บ (และประมวลผล) ข้อมูลเฉพาะในส่วนที่สำคัญจำเป็น เก็บเฉพาะข้อมูลที่ต้องใช้ ตัวอย่างหนึ่งได้แก่การเปิดบัญชีกับธนาคารพาณิชย์ ธนาคารย่อมจำเป็นต้องใช้ข้อมูลระบุตัวบุคคล ได้แก่ ชื่อ นามสกุล เลขประจำตัวประชาชน ในขณะที่ข้อมูลศาสนา ที่แม้จะปรากฏบนหน้าบัตรประชาชน แต่อาจไม่ได้มีความจำเป็นใดในการดำเนินธุรกรรมระหว่างลูกค้ากับธนาคาร สำหรับการวิเคราะห์ข้อมูล (Data Analytics) นั้น โดยทั่วไปเราให้ความสำคัญกับภาพรวมแนวโน้มข้อมูลเพื่อวางแผนนโยบายเป็นสำคัญ การบ่งชี้ระบุตัวบุคคล (Identifying) นอกจากจะไม่ใช่สิ่งที่ไม่จำเป็นแล้วยังเป็นเรื่องที่พึงหลีกเลี่ยง เนื่องจากหากผู้วิเคราะห์สามารถล่วงรู้เจ้าของข้อมูลทั้งโดยตั้งใจและไม่ตั้งใจ อาจเกิดการดูแลอย่างเป็นพิเศษ (Special Treatment) อันจะนำไปสู่การวิเคราะห์ข้อมูลอย่างมีอคติ (Bias) ได้ ข้อมูลที่เข้าข่ายเป็นข้อมูลส่วนบุคคล โดยทั่วไปเราอาจจำแนกประเภทข้อมูลออกเป็น 3 ประเภท ขึ้นกับดีกรีความเข้มข้นในความสามารถในการระบุตัวตนเจ้าของข้อมูล ดังนี้ “ข้อมูลส่วนบุคคล หมายความว่า ข้อมูลเกี่ยวกับบุคคลซึ่งทำให้สามารถระบุตัวบุคคลนั้นได้ไม่ว่าทางตรงหรือทางอ้อม” พระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ.2562 มาตรา 6 กระบวนการลดความเสี่ยงการระบุตัวตนของเจ้าของข้อมูลให้อยู่ในเกณฑ์น้อยมากจนแทบไม่ต้องให้ความสำคัญกับความเสี่ยง เรียกว่า การทำให้เป็นนิรนาม (anonymization) ถึงแม้ข้อมูลนิรนามจะไม่ถือเป็นข้อมูลส่วนบุคคล ดังจะเห็นได้จากการที่กฎหมายคุ้มครองข้อมูลส่วนบุคคลสหภาพยุโรป (GDPR) ซึ่งถือเป็นกฎหมายต้นแบบของพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคลของไทย  ไม่ถูกบังคับใช้กับข้อมูลที่เป็นข้อมูลนิรนาม ดังระบุในอารัมภบท GDPR (Recital) ข้อที่ 26 ซึ่งให้คำจำกัดความของข้อมูลข่าวสารนิรนามว่าคือ “…ข้อมูลที่ไม่สัมพันธ์กับบุคคลที่ถูกระบุตัวตนหรือสามารถระบุตัวตนได้ใด ๆ หรือข้อมูลส่วนบุคคลที่ถูกทำให้ระบุตัวตนไม่ได้ด้วยวิธีการที่ทำให้ไม่สามารถระบุตัวตนเจ้าของข้อมูลได้หรือไม่สามารถระบุตัวตนได้อีกต่อไป ดังนั้นข้อกำหนดนี้ไม่เกี่ยวข้องกับการประมวลข้อมูลนิรนามอันรวมไปถึงเพื่อวัตถุประสงค์ทางสถิติหรือการวิจัย” “ข้อมูลนิรนาม ได้แก่ ข้อมูลที่ไม่สัมพันธ์กับบุคคลที่ถูกระบุตัวตนหรือสามารถระบุตัวตนได้ใด ๆ หรือข้อมูลส่วนบุคคลที่ถูกทำให้ระบุตัวตนไม่ได้ด้วยวิธีการที่ทำให้ไม่สามารถระบุตัวตนเจ้าของข้อมูลได้หรือไม่สามารถระบุตัวตนได้อีกต่อไป ดังนั้นข้อกำหนดนี้ไม่เกี่ยวข้องกับการประมวลข้อมูลนิรนามอันรวมไปถึงเพื่อวัตถุประสงค์ทางสถิติหรือการวิจัย” อารัมภบท GDPR (Recital) ข้อที่ 26 อย่างไรก็ดีศูนย์วิจัยกฎหมายและพัฒนา คณะนิติศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ได้ตั้งข้อพึงระวังว่า แม้ลำพังชุดข้อมูลที่ผ่านการทำให้เป็นนิรนามอาจสามารถระบุตัวตนเจ้าของข้อมูลได้ยากจนถึงขั้นไม่ได้เลย แต่หากวันดีคืนดีหากมีข้อมูลแวดล้อมเพิ่มเติมอาจทำให้สามารถระบุตัวตนเจ้าของข้อมูลได้ เนื่องจากข้อมูลเดิมอาจยังมีความสามารถในการถูกนำไปเชื่อมโยง (Linkability) เพื่อนำไปพิจารณาร่วมกับข้อมูลแวดล้อมอื่น นั่นหมายความว่าข้อมูลที่ผ่านการทำให้เป็นนิรนาม “อาจ” ยังคงเข้าข่ายนิยามของข้อมูลส่วนบุคคลตามที่ระบุไว้ในพระราชบัญญัติคุ้มครองข้อมูลส่วนบุคคล พ.ศ.2562 มาตรา 6 หากสามารถระบุตัวบุคคลได้ในทางอ้อม เทคนิควิธีการจัดทำข้อมูลนิรนาม (Anonymization) เพื่อกำหนดแนวทางในการแปลงข้อมูลส่วนบุคคลให้เป็นข้อมูลนิรนาม คณะที่ปรึกษาผู้เชี่ยวชาญสหภาพยุโรปด้านการคุ้มครองข้อมูลส่วนบุคคล ได้เผยแพร่แนวปฏิบัติว่าด้วยเทคนิคการจัดทำข้อมูลนิรนามในความเห็น WP216 (2014) โดยแบ่งกลุ่มเทคนิคการจัดทำข้อมูลนิรนามออกเป็นสองพวก ได้แก่ ทั้งนี้ยังมีเทคนิคอีกกลุ่มหนึ่งที่ช่วยลดความเสี่ยงในการระบุตัวตน ได้แก่ เทคนิคในกลุ่มที่เน้นการกับข้อมูลระบุตัวตนที่ชัดแจ้ง เช่น รหัสประจำตัว, ชื่อ, นามสกุล ฯลฯ โดยอาจเป็นในลักษณะของการลบทิ้ง (Removal), แทนด้วยค่าศูนย์ (Nulling out), ปิดทับข้อมูล (Masking out) ทั้งหมดหรือบางส่วน, การสลับอักขระ (Scrambling) ฯลฯ อย่างไรก็ดีเทคนิคกลุ่มนี้มักไม่สามารถการันตีความเป็นนิรนามของข้อมูลได้ แต่เป็นเทคนิคที่ถูกนำไปใช้ประกอบกับเทคนิคอื่น ๆ ที่กล่าวมาข้างต้นเพื่อลดความสามารถในการระบุตัวตนของข้อมูล เทคนิควิธีการจัดทำข้อมูลแฝง (Pseudonymization) ในขณะที่กระบวนการจัดทำข้อมูลนิรนามมุ่งเน้นการจัดการแต่ละข้อมูลไม่ให้สามารถสืบสาวถึงตัวตนของเจ้าของข้อมูลได้ อย่างไรก็ดีในบางกรณีการระบุตัวตนเจ้าของข้อมูลอาจมีความจำเป็นแต่ให้สามารถทำได้ผ่านช่องทางที่ออกแบบไว้เท่านั้น กระบวนการดังกล่าวเรียกว่าการแฝงข้อมูล (Pseudonymization) ซึ่งช่วยลดทอนหรือจำกัดความสามารถในการเชื่อมโยงข้อมูลชุดนั้น ๆ เข้ากับชุดข้อมูลอื่น (นอกเหนือจากที่วางแผนไว้) เทคนิคพื้นฐานในการแฝงข้อมูล เช่น การเข้ารหัสข้อมูล (Encryption), การเข้าฟังก์ชันแฮช (Hashing) และ การเก็บข้อมูลแยกส่วนโดยเชื่อมผ่านโทเค็น (Tokenization) เป็นต้น เราควรใช้เทคนิคไหนเพื่อลดความสามารถในการระบุตัวตน กระบวนการทางเทคนิคที่กล่าวมาข้างต้นช่วยลดความสามารถในการระบุตัวบุคคลลง อย่างไรก็ดีแต่ละเทคนิคล้วนมีข้อดีข้อบกพร่องแตกต่างกันออกไป การคุ้มครองความเป็นส่วนตัว (Privacy) ที่รัดกุมจำกัดรูปแบบการการนำข้อมูลไปใช้ประโยชน์ (Utility) การเลือกรูปแบบเทคนิคที่จะใช้คุ้มครองความเป็นส่วนตัวจึงต้องคำนึงถึงรูปแบบวิธีการใช้ข้อมูลประกอบด้วย เพื่อลดความสามารถในการระบุตัวตนเจ้าของข้อมูล อันจะช่วยคุ้มครองความเป็นส่วนตัวของเจ้าของข้อมูล คณะที่ปรึกษาผู้เชี่ยวชาญสหภาพยุโรปด้านการคุ้มครองข้อมูลส่วนบุคคลจึงได้ระบุรูปแบบความเสี่ยงอันมีแนวโน้มที่จะนำไปสู่การระบุตัวตนเจ้าของข้อมูลได้เป็น 3 รูปแบบ ได้แก่ การแบ่งแยกจากกลุ่ม ความสามารถเชื่อมโยง และการอนุมาน เป็นการยากที่จะบอกว่าเทคนิคใดเป็นเทคนิคที่ดีที่สุด ในทางปฏิบัติเทคนิคเดียวกันอาจมีระดับความเสี่ยงที่ต่างกันในกรณีใช้งานที่ต่างกัน ผู้ควบคุมข้อมูลจำเป็นต้องพิจารณาการใช้งานข้อมูลประกอบผ่านการประเมินความเสี่ยงในสามรูปแบบที่ยกมาข้างต้น ในเบื้องต้นอาจพิจารณาตารางภาพรวมความเสี่ยงได้จากตารางด้านล่าง Singling out still a risk Linkability still a risk Inference still a risk Noise Addition Yes May not May not Substitution Yes Yes May not Aggregation (K-anonymity) No Yes Yes L-diversity No Yes May not Differential Privacy May not May not May not Hashing/Tokenization Yes Yes May not ตารางภาพรวมความเสี่ยงของแต่ละเทคนิคสำหรับใช้ลดความสามารถในการระบุตัวตนเจ้าของข้อมูล (สรุปภาพรวมโดย Burton 2016) บทสรุป การจัดทำข้อมูลนิรนามและการจัดทำข้อมูลแฝงเป็นกระบวนการสำคัญในการดูแลรักษาความเป็นส่วนตัวของเจ้าของข้อมูล อันเป็นองค์ประกอบสำคัญหนึ่งในการรักษาความปลอดภัยของข้อมูล วิธีการจัดทำข้อมูลนิรนามสามารถจัดทำได้หลากหลายวิธีซึ่งมีความซับซ้อน ความเหมาะสม ข้อดี และข้อด้อยที่แตกต่างกันออกไป การเลือกเทคนิควิธีที่เหมาะสมจึงจำเป็นต้องพิจารณาเป็นกรณีไป แนวทางหนึ่งที่จะช่วยให้สามารถเลือกใช้เทคนิควิธีที่เหมาะสมสามารถทำได้โดยการประเมินความเสี่ยงที่ข้อมูลชิ้นดังกล่าวจะถูกนำไปใช้ระบุตัวตนผ่านสามรูปแบบ คือ การแบ่งแยกจากกลุ่ม ความสามารถเชื่อมโยง และการอนุมานข้อมูล คงเป็นเรื่องยากเทคนิควิธีหนึ่งวิธีใดที่สามารถลดความเสี่ยงทั้งสามรูปแบบให้เหลือศูนย์ ในความเป็นจริงความเสี่ยงในบางรูปแบบอาจสามารถยอมรับได้เพื่อลดความเสี่ยงในรูปแบบอื่นที่ไม่สามารถยอมรับได้ให้เหลือน้อยที่สุด สิ่งสำคัญจึงเป็นการเลือกและออกแบบรูปแบบการจัดทำข้อมูลนิรนามหรือการจัดทำข้อมูลแฝงที่จะลดความเสี่ยงที่ไม่สามารถยอมรับได้ให้ต่ำที่สุดเท่าที่จะเป็นไปได้โดยที่ยังสามารถใช้ประโยชน์จากข้อมูลได้อย่างเต็มศักยภาพ เขียนโดย พีรดล สามะศิริตรวจทานและปรับปรุงเนื้อหาโดย อนันต์วัฒน์ ทิพย์ภาวัต
28 December 2021
เชื่อมต่อข้อมูลการเงินจากธนาคารแห่งประเทศไทย (BOT) ด้วยโค้ดไพธอนและไมโครซอฟต์เอ็กเซล
บทความนี้เราจะมาทดสอบการเรียกใช้ข้อมูลจากเว็บไซต์บริการข้อมูลของธนาคารแห่งประเทศไทย เพื่อนำมาแสดงผล ผ่านสองรูปแบบ 1) การเขียนโค้ดภาษา Python และ 2) การดึงข้อมูลด้วยโปรแกรมไมโครซอฟต์เอ็กเซลผ่าน Power Query
18 October 2021
Logistic Regression ด้วย Microsoft Excel
บทความนี้จะมานำเสนอการทำโมเดลโดยใช้เครื่องมือง่าย ๆ ที่หลายคนมีอยู่ติดเครื่องคอมพิวเตอร์อยู่แล้ว นั่นก็คือโปรแกรม Microsoft Excel
26 March 2021
ดาต้าแคตตาล็อก (Data Catalog) จะช่วยเตรียมความพร้อมรับมือ COVID-19 ได้อย่างไร
จะมีวิธีการใดที่จะสามารถช่วยให้เราสามารถเข้าใจถึงแหล่งข้อมูลและลักษณะของข้อมูลเหล่านี้ได้ง่ายขึ้นบ้างหรือไม่ จากคำถามนี้สถาบันส่งเสริมการวิเคราะห์และบริหารข้อมูลขนาดใหญ่ภาครัฐ (Government Big Data Institute: GBDi) จึงได้มีส่วนเข้าไปช่วยศูนย์บริหารสถานการณ์การแพร่ระบาดของโรคติดเชื้อไวรัสโคโรนา 2019 (ศบค.) จัดทำแคตตาล็อกข้อมูล (Data Catalog) เพื่อให้เจ้าหน้าที่ บุคลากร หรือผู้ที่เกี่ยวข้องได้สามารถรับรู้ เข้าใจถึงแหล่งข้อมูลเหล่านี้ได้สะดวกรวดเร็วมากขึ้น
5 May 2020
PDPA Icon

We use cookies to optimize your browsing experience and improve our website’s performance. Learn more at our Privacy Policy and adjust your cookie settings at Settings

Privacy Preferences

You can choose your cookie settings by turning on/off each type of cookie as needed, except for necessary cookies.

Accept all
Manage Consent Preferences
  • Strictly Necessary Cookies
    Always Active

    This type of cookie is essential for providing services on the website of the Personal Data Protection Committee Office, allowing you to access various parts of the site. It also helps remember information you have previously provided through the website. Disabling this type of cookie will result in your inability to use key services of the Personal Data Protection Committee Office that require cookies to function.
    Cookies Details

  • Performance Cookies

    This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

  • Functional Cookies

    This type of cookie enables the Big Data Institute (Public Organization)’s website to remember the choices you have made and deliver enhanced features and content tailored to your usage. For example, it can remember your username or changes you have made to font sizes or other customizable settings on the page. Disabling these cookies may result in the website not functioning properly.

  • Targeting Cookies

    "This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

Save settings
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.