Asst. Prof. Duangjai Jitkongchuen, PhD

Asst. Prof. Duangjai Jitkongchuen, PhD

Vice President, Manpower Development Division at Big Data Institute (Public Organization), BDI

บทความทั้งหมด

All Articles

Author Category Post Filter
การใช้ Data ในการวางแผนฉีดวัคซีนโควิด-19
วัคซีน…คือทางออก เมื่อเกิดสถานการณ์การระบาดครั้งยิ่งใหญ่ของโรค โควิด-19 ไปทั่วประเทศไทย มาตรการใช้อาวุธ และสร้างเกราะป้องกัน คือ เว้นระยะห่าง สวมใส่แมสก์ ล้างมือด้วยแอลกอฮอล์ ตลอดเวลากว่าหนึ่งปี ก็ยังคงไม่เพียงพอต่อการจะเอาชนะสงครามไวรัสนี้ได้ วัคซีน …คือทางออกที่สำคัญยิ่ง และต้องเร่งฉีดให้กับประชาชนเป็นจำนวนมาก เพื่อสร้างภูมิคุ้มกันให้กับคนไทยทั้งประเทศ ศูนย์ฉีดวัคซีนกลางบางซื่อ เป็นจุดเริ่มต้นที่เป็น “ศูนย์กลาง” ของ “ความหวัง” และ “ความร่วมมือ” เพื่อให้คนไทยปลอดภัยแข็งแรง นำพาพี่น้องคนไทยได้กลับไปใช้ชีวิตปกติ คืนอ้อมกอดอันอบอุ่นให้กับทุกครอบครัวและนำประเทศไทยให้ก้าวต่อไปสู่อนาคตที่มั่นคง เตรียมการแค่ 3 วัน ระดมทุกข้อมูล ขุดประสบการณ์เก่า ใช้งานทุกตัวเลข ช่วงที่มีแนวคิดจัดตั้งศูนย์ฉีดวัคซีนกลางบางซื่อนั้น หน่วยงานอื่น ๆ ของกรมการแพทย์ในพื้นที่กรุงเทพมหานคร (กทม.) มีภาระในการรักษาผู้ป่วยเกือบทั้งหมดแล้ว หน่วยงานที่ยังพอมีกำลังคนก็จะมีเพียงสถาบันโรคผิวหนัง สถาบันทันตกรรม สถาบันสิรินธรเพื่อการฟื้นฟูสมรรถภาพทางการแพทย์แห่งชาติ ด้วยเหตุนี้ ทางผู้บริหารจึงได้มอบหมายให้สถาบันโรคผิวหนังเข้ามารับผิดชอบการดำเนินงานของศูนย์ฉีดวัคซีนกลางบางซื่อ ทีมงานและหน่วยงานที่เกี่ยวข้องเริ่มลงไปสำรวจสถานที่จริงในวันที่ 21 พ.ค. 2564 เพื่อพิจารณาว่าจะสามารถตั้งจุดลงทะเบียน จุดฉีดวัคซีนได้กี่จุด ต้องใช้พื้นที่เท่าไหร่ ต้องเตรียม Facility รองรับอย่างไร จากนั้นจึงกลับมาทำการบ้าน และวางแผน  มีการวิเคราะห์ออกแบบกระบวนการทำงานให้คล่องตัวที่สุด ง่ายที่สุด และเร็วที่สุด จุดใดที่สามารถนำเอาเทคโนโลยีมาช่วยได้ก็นำมาใช้ทั้งหมด เช่น เรื่องการลงทะเบียน การใช้บาร์โค้ดต่าง ๆ มีการประเมินจุดที่อาจเป็นคอขวด หรืออาจมีปัญหาต้องใช้ทรัพยากรมากที่สุดว่าอยู่ตรงจุดไหน แล้ววางแผนออกมาในหลาย ๆ Scenario  เช่น หากต้องฉีดวัคซีนตั้งแต่ 2,000 คน/วัน ไปจนถึง 20,000 คน/วัน จะต้องใช้ทรัพยากรเท่าใด จากพื้นที่ในสถานีกลางบางซื่อคำนวณแล้วว่าสามารถตั้งจุดฉีดวัคซีนได้ 100 จุด ระยะเวลาให้บริการเฉลี่ยแต่ละจุดนี้จะใช้เวลา 3 นาที แล้วคำนวณย้อนกลับมาว่าก่อนจะไปถึงจุดฉีดวัคซีน โควิด 19 จะต้องผ่านการลงทะเบียน จากประสบการณ์เดิมที่จุดลงทะเบียนจะใช้เวลา 10-15 นาที เพราะฉะนั้นถ้าจุดฉีดวัคซีน โควิด 19 100 จุด จุดลงทะเบียนก็ต้องมีจำนวนเป็น 3 เท่า เพื่อให้กระบวนการทำงานสอดคล้องกัน จุดแข็งด้านไอที จุดเด่นด้านการให้บริการสาธารณสุข สถาบันโรคผิวหนัง ใช้ระบบสารสนเทศโรงพยาบาลในรูปแบบ Full Paperless (Softcon Phoenix) เพื่อให้บริการผู้ป่วยมานานกว่า 8 ปี มีระบบการบันทึกจัดเก็บข้อมูลสุขภาพของผู้ป่วยที่มีความปลอดภัย มีระบบสำรองข้อมูลที่ทำงานแบบเรียลไทม์ มีแบ่งระดับการเข้าถึงข้อมูลของแต่ละ User ซึ่งเตรียมแผนการรองรับด้านกฎหมาย PDPA มาตั้งแต่แรกเริ่ม โดยจากวิสัยทัศน์ที่กว้างไกลของผู้นำองค์กร เมื่อต้องตั้งศูนย์ฉีดวัคซีนนอกโรงพยาบาล จึงเป็นเรื่องที่ง่ายดายมาก หากจะนำระบบบริการของสถาบันฯ มาปรับใช้กับการให้บริการวัคซีนแก่ประชาชนทั่วไป ผู้เขียนเองเป็นเภสัชกรที่คลุกคลีอยู่กับระบบปฏิบัติการนี้มาตั้งแต่เริ่มพัฒนาโปรแกรม จึงได้รับมอบหมายให้ดูแลระบบไอทีทั้งด้านบริหารและข้อมูลหลังบ้านของการฉีดวัคซีนไปด้วย ความรู้สึกหลังจากที่รู้ว่าตัวเองต้องเปลี่ยนจากการดูแลข้อมูลและสถิติหลักร้อยคนต่อวันเป็นหลักหมื่น ตอนแรกก็รู้สึกหนักใจ แต่ในขณะเดียวกันก็ได้รับแนะนำต่าง ๆ จาก ผศ.ดร.นพ.กฤษณ์ พงศ์พิรุฬห์ อาจารย์ประจำภาควิชาเวชศาสตร์ป้องกันและสังคม คณะแพทย์จุฬาลงกรณ์มหาวิทยาลัย ผู้ที่มีความเชี่ยวชาญการใช้ชุดข้อมูล Big Data เป็นอย่างดี อีกทั้งศูนย์ฯ เองก็ยังมีคณะกรรมการดูแลติดตามความปลอดภัยและข้อมูลผู้มารับวัคซีน ณ ศูนย์ฉีดวัคซีนกลางบางซื่อ (VSDMC) ซึ่งผู้เขียนเองก็เป็นหนึ่งในคณะนี้เช่นกัน โดยมีหน้าที่ดูแลเรื่องที่เกี่ยวข้องกับความปลอดภัยและข้อมูลผู้มารับวัคซีน การกำกับติดตามผลการดำเนินงาน การติดตามอาการไม่พึงประสงค์ภายหลังจากได้รับวัคซีน การจัดทำสถิติด้านข้อมูลสุขภาพบุคคลเพื่อใช้ในการบริหารจัดการ และการวิเคราะห์ประมวลผลเพื่อนำมาสนับสนุนข้อมูลด้านวิชาการ การวิจัยและการพัฒนาสาธารณสุข เพราะการฉีดวัคซีนไม่ใช่แค่ฉีดให้เสร็จๆ ไป หรือแค่นับเข็ม นับโด๊ส (Dose) ในช่วงทดสอบระบบ ได้ทำการฉีดวัคซีนให้เฉพาะกับกลุ่มขนส่งสาธารณะ ตั้งแต่แอร์โฮสเตสบนฟ้าลงมาถึงพื้นดินแบบคนขับแท็กซี่และวินมอเตอร์ไซค์ ตั้งแต่เช้าจรดมืด หลังจากปิดบริการในเวลาสองทุ่ม จะเป็นเวลาของผู้เขียนที่จะเริ่มดึงรายงาน เช็คตัวเลข จนถึงเวลาประมาณตีสองของทุกวัน เพื่อนำข้อมูลมาวิเคราะห์ตัวเลขในแต่ละวัน ที่จะบ่งบอกได้ว่าหน่วยงานหรือองค์กรใดที่มารับบริการวัคซีนแล้วบ้าง เพื่อที่ทางต้นสังกัดจะได้นำไปวิเคราะห์ต่อว่าบุคลากรได้รับวัคซีนไปแล้วกี่เปอร์เซ็นต์ มีความพร้อมที่จะทำงานให้บริการในฐานะด่านหน้ามากน้อยเพียงใด ผลข้างเคียงหลังรับวัคซีนที่รายงานเข้ามาในแต่ละวัน ทั้งรูปแบบที่เกิดขึ้นภายใน 30 นาที, จำนวนการรับเคสที่จุดปฐมพยาบาล รวมถึงสาเหตุที่เกิดขึ้น เพื่อนำไปประเมินว่าควรจะเร่งสื่อสารให้ความรู้ผู้มารับบริการอย่างไร และเมื่อถึงช่วงการรับวัคซีนเข็มที่ 2 ก็จะต้องวิเคราะห์ว่าโดยรวมแล้วเกิดการ Drop Off (ไม่มารับเข็มที่ 2 ตามนัด) จำนวนเท่าใด ในฐานะกระทรวงสาธารณสุขค่อนข้างตระหนักในข้อนี้มาก เฝ้าระวังว่าหากเมื่อใดที่เริ่มพบ % Drop Off ของวัคซีนซิโนแวคสูง ๆ เช่นเดียวกับต่างประเทศ (อาจเป็นเพราะกลัวผลข้างเคียงเข็มที่ 2 จาก Fake News) นั่นหมายถึงว่าต้องเร่งทำความเข้าใจที่ถูกต้องเพิ่มขึ้น สุดท้ายเราพบว่า % Drop Off ค่อนข้างต่ำ กลุ่มขนส่งสาธารณะมารับบริการเข็มที่ 2 ตามนัด เมื่อสิ้นสุดระยะทดสอบระบบจำนวน 150,000 คน ก็เป็นสัญญาณที่ดีของการให้บริการกับประชาชนกลุ่มใหญ่ต่อไป ไม่มี Honeymoon Period เมื่อเริ่มดำเนินการในวันที่ 24 พ.ค. 2564 ตั้งแต่นั้นเป็นต้นมาไม่มีช่วง Honeymoon Period เลย จะมีเพียงวันแรกที่เปิดดำเนินการครึ่งวันและฉีดวัคซีนไปได้ประมาณ 4,900-5,000 คน แต่หลังจากนั้นคือวันละ 10,000 คนขึ้นไปมาโดยตลอด โดยหลังจากที่นายกรัฐมนตรีมาเป็นประธานในพิธีเปิดศูนย์อย่างเป็นทางการในวันที่ 7 มิ.ย. 2564 จึงเริ่มดำเนินการฉีดวัคซีนแก่ประชาชนทั่วไปในรูปแบบจองคิวล่วงหน้า 100% ระหว่างนี้ก็ได้มีการวิเคราะห์ข้อมูลพบว่าคนที่มาฉีดที่นี่ส่วนใหญ่เป็นประชากรแฝง (ผู้ที่ภูมิลำเนาต่างจังหวัดแต่เข้ามาใช้ชีวิต, เรียน, ทำงาน ในกทม.) ทำให้ไม่ต้องเดินทางกลับไปรับวัคซีนที่ภูมิลำเนา ซึ่งทำให้ลดการเดินทาง ลดการเคลื่อนย้าย ลดค่าใช้จ่าย อีกทั้งยังแบ่งเบาภาระของหน่วยงานอนามัยของ กทม. ฉีดวัคซีนแล้วได้อะไร เมื่อเริ่มดำเนินการฉีดวัคซีนให้ประชาชนทั่วไปแล้วระยะหนึ่ง จึงเริ่มมีแนวคิดที่อยากจะทราบว่าการฉีดวัคซีนไปแล้ว ได้ผลการป้องกันการติดเชื้อเป็นอย่างไร โดยที่ไม่ต้องให้ผู้รับบริการมาเจาะเลือดตรวจภูมิคุ้มกัน ทางสถาบันวิจัยกรมการแพทย์ ร่วมกับสถาบันส่งเสริมการวิเคราะห์และบริหารข้อมูลขนาดใหญ่ภาครัฐ (สวข.) (GBDi) โดยมีดร.นนทวิทย์ ชีวเรืองโรจน์ เป็นหัวหน้าทีมที่แข็งแกร่งด้าน Big Data ได้เข้ามาดำเนินการในส่วนของการทำ Data Integration ซึ่งต้องนำชุดข้อมูลหลายล้านแถว จากหลาย ๆ ระบบ ไม่ว่าจะเป็นจากหน่วยฉีดวัคซีน ผลจากการติดเชื้อโควิดจากระบบ Co-lab ผลการเข้าพักรักษาในโรงพยาบาลด้วยโรคโควิด-19 จากระบบ Co-ward แล้วส่งชุดข้อมูลเหล่านี้ในรูปแบบที่ไม่สามารถระบุตัวตนบุคคลย้อนกลับได้ (ตามกฎหมายPDPA) เพื่อให้ศูนย์ฯ และคณะแพทยศาสตร์จุฬาลงกรณ์มหาวิทยาลัย นำไปวิเคราะห์ในรูปแบบการวิจัย Prospective Cohort Study อีกทั้งยังมีคณะวิศวกรรมศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย เข้ามาช่วยในด้านการนำเสนอ Visual Graphic ให้เข้าใจง่ายขึ้น จนสามารถตีพิมพ์งานวิจัยนี้สำเร็จใน The Lancet Regional Health – Southeast Asia นับเป็นการยกระดับความร่วมมือที่ถือเป็น Big Step ซึ่งจะเห็นได้จากพิธีลงนามความร่วมมือ “โครงการพัฒนาเพิ่มคุณภาพการบริการด้านการแพทย์และสาธารณสุขผ่านเทคโนโลยีดิจิทัล” ด้วยสาเหตุจากสถานการณ์การแพร่ระบาดโควิด-19 ได้ส่งผลกระทบต่อสุขภาพคนไทยเป็นอย่างมาก เป็นเหตุผลสำคัญที่ต้องนำข้อมูลขนาดใหญ่มาช่วยในการบริหารจัดการระบบสาธารณสุขและการวิเคราะห์เพื่อพัฒนางานบริการ ซึ่งจำเป็นต้องอาศัยการเชื่อมโยงฐานข้อมูลสุขภาพ และการแลกเปลี่ยนข้อมูลสุขภาพ...
13 December 2022
Big Data และ AI สามารถปรับปรุงความปลอดภัยของแอปพลิเคชันบนมือถือได้จริงหรือไม่?
ในปัจจุบันมีการใช้แอปพลิเคชันบนมือถือมากขึ้นเรื่อย ๆ ตั้งแต่ Mobile E-commerce ไปจนถึง Social Media โดยคนทั่วไปใช้เวลาบนแอปพลิเคชันบนมือถือประมาณ 4.8 ชั่วโมงต่อวัน โดยใน Google Play Store มีแอปพลิเคชันมากถึง 3.48 พันล้านแอป และใน Apple App Store มีแอปพลิเคชัน 1.96 ล้านแอปให้เลือกใช้ด้วยกัน แอปพลิเคชันเหล่านั้นมีปัญหาด้านระบบรักษาความปลอดภัยอย่างไรบ้าง และเทคโนโลยีทางด้าน Big Data หรือ ปัญญาประดิษฐ์ (AI) จะสามารถแก้ปัญหาดังกล่าวได้หรือไม่ ( big data ประโยชน์ ) เหตุใดแอปพลิเคชันบนมือถือจึงมีแนวโน้มที่จะถูกแฮก จากรายงานพบว่า แอปพลิเคชันของร้านค้าต่าง ๆ 90% ใน Google Play Store และ 35% ใน Apple App Store ถูกแฮก ซึ่งมีปัจจัยมากมายที่จะทำให้เกิดการแฮกบนมือถือ หนึ่งในนั้นคือการเขียน Code ที่ไม่รัดกุมที่มักจะเกิดจากการที่ผู้พัฒนาแอปพลิเคชันได้รับความกดดันให้ส่งงานตรงตามเวลา หรือมีข้อจำกัดทางด้านการเงินในการพัฒนา ทั้งนี้การทดสอบระบบรักษาความปลอดภัยของแอปพลิเคชันสามารถช่วยอุดรอยรั่วตรงนี้ได้ ยกเว้นแอปพลิเคชันที่มีการใช้ Open-source Coding Software ในการพัฒนา นอกจากนี้การที่แอปพลิเคชันบนมือถือสามารถเก็บข้อมูลทางการเงินและข้อมูลส่วนตัวได้นั้น เป็นสิ่งที่ล่อตาล่อใจแฮกเกอร์ในการที่จะแฮกข้อมูล ตัวอย่างเช่น แอปพลิเคชันของร้านค้าต่าง ๆ โดยปกติจะเก็บข้อมูลบัตรและข้อมูลส่วนตัวไว้สำหรับการจัดส่ง จึงเป็นขุมทองข้อมูลให้กับนักจู่โจมทางไซเบอร์ บวกกับความจริงที่ว่าแอปพลิเคชันบนมือถือมากมายมีการเขียน Code ที่ไม่รัดกุมและมีความเสี่ยงอื่น ๆ อีกหลายอย่างที่ทำให้แทรกซึมเข้าไปได้ง่าย จึงเห็นได้ชัดว่าเหตุใดแอปพลิเคชันของร้านค้าจึงเป็นเป้าหมายแรก ๆ ของพวกแฮกเกอร์ ปัญหาสุดท้ายเกิดจากเกิดจากการเข้าใจผิดของผู้ใช้งานที่คิดว่าแอปพลิเคชันใน Store นั้นปลอดภัย เพราะไม่ใช่ว่าทุกแอปพลิเคชันใน Store จะถูกกฎหมายหรือออกแบบมาโดยผู้พัฒนาแอปพลิเคชันมืออาชีพ ตัวอย่างเช่น มีแอปพลิเคชันมากมายที่คุณภาพต่ำและมีความเสี่ยงสูงซึ่งทำให้ถูกแฮกได้ง่าย บวกกับการที่ผู้ใช้ไม่ได้คำนึงถึงในเรื่องความปลอดภัย เพียงต้องการเล่นเกมจึงได้ใส่ข้อมูลส่วนตัวเข้าไป ซึ่งก็กลายเป็นเป้านิ่งให้กับพวกแฮกเกอร์ที่รออยู่ Big Data และ AI จะช่วยได้อย่างไร? มาดูกัน Big Data คืออะไร? ก่อนจะเข้าใจว่าเทคโนโลยีทั้งสองอย่างนี้จะช่วยแก้ปัญหานี้ได้อย่างไร เราต้องเข้าใจก่อนว่าเทคโนโลยีทั้งสองอย่างนั้นคืออะไรในบริบทของแอปพลิเคชันบนมือถือ Big Data คือชุดข้อมูลที่มีขนาดใหญ่หรือซับซ้อนเกินกว่าจะประมวลผลได้ด้วยวิธีการประมวลผลข้อมูลแบบดั้งเดิม คุณลักษณะของ Big Data คือ Velocity (ความเร็ว) Volume (ปริมาณ) และ Variety (ความหลากหลาย) – การที่ข้อมูลจะกลายเป็น Big Data ได้ต้องมีครบทั้ง 3 V นี้ ปัญหาของ Big Data จึงตามชื่อของมัน นั่นคือใหญ่เกินไป หลายบริษัทต้องพิจารณาก่อนว่าข้อมูลส่วนไหนมีมูลค่าและจำเป็นกับบริษัทเพื่อให้จัดการได้ง่ายขึ้น AI คืออะไร? AI หรือปัญญาประดิษฐ์ คือ โปรแกรมที่สามารถทำงานที่ซับซ้อนได้ มีความฉลาดใกล้เคียงมนุษย์ ซึ่งเป็นแนวคิดที่เมื่อ 20 ปีก่อนไม่มีใครคาดถึง  แต่ปัจจุบันนี้การใช้ปัญญาประดิษฐ์นั้นแพร่หลายกว้างไกลและยังมีการพัฒนาต่อเนื่องไปทุกวัน ตัวอย่างเช่น ธุรกิจสามารถใช้ AI เพื่อสร้างโฆษณาสำหรับรายบุคคลหรือสามารถระบุนิสัยของผู้ซื้อได้ นอกจากนี้ AI ยังสามารถใช้กับ Online Chatbot เครื่องบินแบบไร้คนขับ กระบวนการอุตสาหกรรมการผลิต และอื่น ๆ ได้อีกมาก บริษัทต่าง ๆ สนใจสร้างเครื่องจักรที่ใช้ปัญญาประดิษฐ์ เพื่อจะเข้าถึงอารมณ์และความคิดของมนุษย์ได้มากขึ้น ยิ่งไปกว่านั้นคอมพิวเตอร์บางตัวสามารถแยกแยะวัตถุทางกายภาพได้แล้วโดยใช้ปัญญาประดิษฐ์ เทคโนโลยีทั้งสองอย่างนี้สามารถปรับปรุงระบบรักษาความปลอดภัยของแอปพลิเคชันบนมือถือได้อย่างไร? วิธีการใช้ข้อมูลที่แตกต่างกันของทั้งสองเทคโนโลยีนี้มีส่วนช่วยปรับปรุงความปลอดภัยของ แอปพลิเคชันบนมือถือ ได้อย่างไร? เริ่มจาก Big Data  ข้อมูลจำนวนมหาศาลที่รวบรวมเป็นชุดข้อมูล Big Data สามารถให้ข้อมูลที่มีคุณค่ามากแก่ผู้พัฒนาเกี่ยวกับแบบแผนพฤติกรรมของผู้ใช้ เพื่อจะค้นหาช่องโหว่ที่อาจก่อให้เกิดความเสี่ยงสูงด้านระบบรักษาความปลอดภัย ตัวอย่างเช่น ข้อมูลสามารถทำให้เราทราบว่าผู้ใช้งานมีรูปแบบการป้อนข้อมูลส่วนตัวของพวกเขาอย่างไรและส่งผลต่อการแฮกหรือไม่ Big Data ยังสามารถช่วยให้ผู้พัฒนาค้นพบปัญหาในแอปพลิเคชันและสามารถดำเนินการเปลี่ยนแปลงที่จำเป็นเพื่อปรับปรุงประสิทธิภาพของแอปพลิเคชันได้ Bug ของแอปพลิเคชันคือหนึ่งในต้นเหตุที่ทำให้แฮกเกอร์สามารถเข้าถึงแอปพลิเคชันได้ง่าย เป็นตัวเพิ่มความเสี่ยงในการโดนแฮก AI สามารถปฏิบัติการได้แบบเดียวกันกับ Big Data โดย AI สามารถเรียนรู้พฤติกรรมและให้ความเห็นเชิงลึกที่มีประโยชน์เกี่ยวกับพฤติกรรมของผู้ใช้ที่อาจส่งผลให้มีการแฮกแอปพลิเคชันมากขึ้น ผู้พัฒนาบางรายเริ่มใช้ AI ในการส่งการแจ้งเตือนไปยังผู้ใช้เกี่ยวกับความเสี่ยงสูงที่ตรวจพบจากการแฮกครั้งก่อน ๆ ตัวอย่างเช่น เมื่อผู้ใช้สร้างรหัสผ่านใหม่ AI สามารถระบุได้ว่ารหัสผ่านนั้น สามารถเดาได้ง่ายเกินไปและขอให้ผู้ใช้สร้างรหัสผ่านที่รัดกุมมากขึ้นได้ AI ยังมีจุดแข็งในการแสดงปัญหาด้านการรักษาความปลอดภัยให้ผู้พัฒนาทราบ โดยสามารถแยกแยะแบบแผนการเขียน Code ที่ไม่รัดกุมได้  นอกจากนี้ยังสามารถช่วยปรับปรุงประสิทธิภาพโดยรวมของแอปพลิเคชันสำหรับผู้ใช้เช่นเดียวกับ Big Data โดยการวิเคราะห์พฤติกรรมของผู้ใช้ และแนะนำวิธีใหม่ ๆ ในการใช้แอปพลิเคชัน ซึ่งช่วยเพิ่มประสบการณ์โดยรวมของผู้ใช้ได้ อย่างที่ได้กล่าวไปข้างต้น ทุกวันนี้เราใช้แอปพลิเคชันบนมือถือมากขึ้นเรื่อย ๆ และในทุก ๆ วันก็มีแอปพลิเคชันใน Store เพิ่มมากขึ้นเฉลี่ย 3,739 แอปพลิเคชันต่อวัน ทำให้เกิดคำถามขึ้นว่า แอปพลิเคชันจำนวนมากมายมหาศาลที่เพิ่มเข้าใน Store ต่าง ๆ นั้นมีคุณภาพและระบบรักษาความปลอดภัยที่ดีจริงหรือไม่ เพราะไม่ใช่ว่าทุกแอปพลิเคชันจะมีผู้พัฒนามืออาชีพดูแลอยู่ แต่ด้วยการใช้งานของ Big Data และ AI จะทำให้ระบบรักษาความปลอดภัยของแอปพลิเคชันและการปรับปรุงการใช้งานกลายเป็นมาตรฐานได้ บทความโดย Bigdataเนื้อหาจากบทความของ BDAN (Big Data Analytics News)แปลและเรียบเรียงโดย ไอสวรรค์ ไชยชะนะตรวจทานและปรับปรุงโดย ดวงใจ จิตคงชื่น
13 November 2022
Computational Psychology ศาสตร์ใหม่เรียนรู้ใจจากข้อมูล
Computational Psychology คืออะไร คำว่า Computational Psychology ถึงแม้ว่าราชบัณฑิตจะบัญญัติภาษาไทยไว้ว่า จิตวิทยาคอมพิวเตอร์ [1] แต่ผู้เขียนคิดว่าความหมายที่สื่อความได้ดีกว่าน่าจะเป็น จิตวิทยาเชิงคำนวณ คือ การศึกษาจิตวิทยาด้วยกระบวนวิธีการคำนวณและวิเคราะห์จากข้อมูลจำนวนมากต่าง ๆ ที่ผ่านมา การศึกษาด้านจิตวิทยาจะใช้การเก็บข้อมูลจากแบบสอบถามหรือบันทึกจากการทดลอง แล้วนำสถิติมาใช้ในการแปลผลข้อมูลเหล่านั้น ด้วยความที่การแจกแบบสอบถามและการทดลองใช้เวลามาก ต้นทุนสูง ข้อมูลที่เก็บได้จึงมีจำนวนไม่มากนัก อีกทั้งส่วนใหญ่ผู้ถูกศึกษายังจำกัดอยู่ในประชากรกลุ่มเล็ก บ่อยครั้งผลการศึกษาที่ได้มานั้นมักปรับใช้ได้กับบางบริบทเท่านั้น ในวงการวิชาการมีคำกล่าวว่างานวิจัยด้านจิตวิทยาในยุคก่อนนั้นมีความ WEIRD ซึ่งย่อมาจาก Western-Educated-Industrialized-Rich-Democratic เรียกอีกอย่างว่าเป็นงานวิจัยที่ทำกับ ทำโดยและทำเพื่อชาวตะวันตกในประเทศอุตสาหกรรมที่ร่ำรวยและอยู่ในสังคมประชาธิปไตย ทำให้เกิดคำถามว่าผลการศึกษาเหล่านั้นสามารถปรับใช้กับคนได้ทั่วโลกจริงหรือ ทว่าในปัจจุบัน ด้วยเทคโนโลยีอินเทอร์เน็ต และความก้าวหน้าด้าน Big Data และ ปัญญาประดิษฐ์ AI ต่าง ๆ (ในบทความนี้ขอกล่าวรวม Machine Learning เป็นส่วนหนึ่งของ AI) ทำให้เราสามารถเก็บข้อมูลได้ง่ายขึ้น ไม่ว่าจะผ่านแบบสอบถามออนไลน์ ผ่านเครื่องมือ Crowdsourcing ทำให้เข้าถึงกลุ่มเป้าหมายได้หลากหลาย หรือจะเป็นการเก็บข้อมูลจากพฤติกรรมดิจิทัลที่สามารถบันทึกได้โดยอัตโนมัติ ไม่ต้องสิ้นเปลืองเวลาของอาสาสมัครวิจัย อีกทั้งยังสามารถวิเคราะห์ผลจากข้อมูลจำนวนมาก ด้วยกรรมวิธีการที่ซับซ้อนกว่าเดิมจึงทำให้เกิดความเข้าใจเชิงลึกซึ่งไม่สามารถทำได้ในสมัยก่อน ตัวอย่างงานวิจัยและการประยุกต์ใช้ Computational Psychology สุดปัง เล่ามาถึงตรงนี้แล้ว หลายคนอาจจะยังนึกภาพไม่ออกว่าวิทยาการทางคณิตศาสตร์ คอมพิวเตอร์ หรือวิศวกรรมต่าง ๆ จะเอามาใช้ศึกษาจิตใจคนได้อย่างไร จึงขอยกตัวอย่างการใช้ศาสตร์แขนงนี้ทั้งในงานวิจัยและที่อาจพบเจอในชีวิตประจำวัน งานวิจัยที่ผู้เขียนคิดว่าพลาดไม่ได้เลย และเป็นงานวิจัยชิ้นที่ทำให้ผู้เขียนพาตัวเองเข้าสู่วงการนี้ คือการที่ข้อมูลเพจ Facebook ที่เราไปกดถูกใจ (Facebook Likes) สามารถบ่งบอกลักษณะต่าง ๆ เกี่ยวกับตัวเราได้ ไม่ว่าจะเป็นเพศสภาพ เชื้อชาติ ศาสนา ความเห็นทางการเมือง รวมไปถึงลักษณะบุคลิกภาพใหญ่ทั้งห้า (Big Five Personality Traits) สถานะโสดหรือมีแฟน รวมถึงพฤติกรรมทางด้านอื่น ๆ เช่น การสูบบุหรี่ การดื่มเครื่องดื่มแอลกอฮอล์ และการใช้ยาเสพติด เป็นต้น [2] โดยจากผลการวิเคราะห์ของกราฟในด้านบนแสดงให้เห็นว่า ความแม่นยำในด้านเชื้อชาติมีความแม่นยำมากที่สุด มากถึง 95% ซึ่งเป็นการวิเคราะห์ระหว่างคอเคเชียน (คนผิวขาว) และแอฟริกันอเมริกัน [2] นอกจากนี้อัลกอริทึม AI ยังสามารถใช้ข้อมูล Facebook Likes ของเราประเมินบุคลิกภาพของตัวเราได้ดีกว่าคนรู้จัก เพื่อนสนิท หรือแม้กระทั่งคู่สมรสด้วยซ้ำ [3] แสดงให้เห็นว่า พฤติกรรมของเราในโลกดิจิทัล โดยเฉพาะในโลกโซเชียล เมื่อนำมารวมกับเทคโนโลยีการคำนวณสมัยใหม่สามารถทำให้เรารู้จักตัวเราเองได้ดีกว่าการใช้มนุษย์เป็นผู้ประเมินเสียอีก อย่างกราฟด้านล่างนี้ก็เป็นผลลัพธ์จาก [3]  ซึ่งเป็นการแสดงผลการวิเคราะห์ที่เทียบความแม่นยำในการตัดสินบุคลิกภาพโดยใช้คอมพิวเตอร์ และจำนวน Facebook Likes  โดยเส้นสีแดงที่มีความหนากว่าเส้นอื่น ๆ นั้น แสดงถึงความแม่นยำเฉลี่ยของลักษณะบุคลิกภาพทั้งห้าที่ถูกวิเคราะห์ด้วยระบบคอมพิวเตอร์ การทราบลักษณะบุคลิกภาพเฉย ๆ อาจเป็นเพียงเกร็ดความรู้ที่น่าสนใจ และมีประโยชน์ต่อรายบุคคลเท่านั้น แต่ว่างานวิจัยที่ใช้ AI ในการวิเคราะห์ข้อมูลจากโซเชียลนี้ สามารถทำให้เกิดประโยชน์ในด้านการแพทย์ได้ เช่น การวิเคราะห์โรคซึมเศร้าจากรูปโปรไฟล์และการใช้ภาษาบนสเตตัสโซเชียลต่าง ๆ [4–6] ในประเทศไทยเองก็มีแอปพลิเคชันคัดกรองผู้มีภาวะซึมเศร้าโดยใช้ AI สามารถเข้าใช้ได้จากแอปพลิเคชันหมอพร้อม เป็นเครื่องมือที่ช่วยแบ่งเบาภาระของจิตแพทย์และนักจิตวิทยา และทำให้ผู้ที่มีความเสี่ยงหรือมีปัญหานี้เข้าถึงความช่วยเหลือได้ง่ายขึ้นมาก [7] นอกจากนี้ ในภาคธุรกิจยังใช้การวิเคราะห์อารมณ์จากการใช้ภาษาหรือใบหน้า มาช่วยในกลยุทธ์ทางการตลาดและการรับสมัครงาน เช่น การวิเคราะห์ความประทับใจของลูกค้าจากรีวิว [8] หรือการวิเคราะห์อารมณ์และคุณสมบัติต่าง ๆ ของผู้สมัครงานจากการแสดงออกทางใบหน้าในช่วงที่สัมภาษณ์งาน [9] เป็นต้น หรือแม้กระทั่งงานวิทยานิพนธ์ของผู้เขียนเองที่ศึกษาว่าคนแต่งงานกันหน้าเหมือนกันมากขึ้นหรือไม่ โดยใช้ AI เป็นตัววิเคราะห์ความเหมือนของใบหน้า ก็เป็นงานวิจัยน่ารัก ใส ๆ อีกงานหนึ่งที่ใช้ประโยชน์จากศาสตร์นี้ ฟัง ๆ แล้วทำไมดูน่ากลัวจัง การที่ AI และ Big Data สามารถรู้จักตัวเราได้ดีทั้ง ๆ ที่เราไม่ได้ต้องการบอกอะไรเลยเป็นเรื่องที่น่ากลัว ลองคิดดูหากผู้ไม่ประสงค์ดีได้ข้อมูลเหล่านี้ไปแล้วออกแบบเครื่องมือที่จะใช้ประโยชน์จากสภาพจิตใจของเรา เช่น การหลอกหาประโยชน์ หรือการโน้มน้าวใจให้เข้ากับกลุ่มใดกลุ่มหนึ่ง (เช่นกลุ่มทางการเมือง ศาสนา ลัทธิ) ในปี 2018 มีงานวิจัยออกมาว่า AI สามารถบ่งบอกเพศสภาพของเราได้ดีกว่ามนุษย์คนอื่น [10] ซึ่งก่อให้เกิดความกังวลเกี่ยวกับบุคคลที่มีความหลากหลายทางเพศมาก และเกิดความขัดแย้งในวงการศาสนาหัวรุนแรง เพราะความสามารถนี้หมายความว่า องค์กรใด ๆ ที่ไม่ประสงค์ดี หรือไม่ตระหนักรู้สามารถใช้เทคโนโลยีนี้สร้างความไม่เป็นธรรมต่อเพศสภาพบางกลุ่มได้ หรือแม้กระทั่งเรื่องฉาวโฉ่ของบริษัท Cambridge Analytica ที่ถูกเปิดเผยในปี 2018 เช่นกัน ว่าได้ใช้ข้อมูลจาก Facebook ไปทำการวิเคราะห์ที่ไม่โปร่งใสหลายรายการ เช่น การช่วยเหลือการหาเสียงเลือกตั้งประธานาธิบดีของสหรัฐอเมริกา และการรณรงค์โหวตออกจากสหภาพยุโรป (Brexit) ของสหราชอาณาจักรในปี 2016 [11] จะเห็นได้ว่า เหรียญย่อมมีสองด้าน ความก้าวหน้าของเทคโนโลยีย่อมมากับภัยมืดเสมอ ขึ้นกับผู้ใช้เทคโนโลยีว่ามีสติสัมปชัญญะและจริยธรรมมากแค่ไหน แต่ต้องขอบคุณข่าวฉาวเหล่านี้ ที่ทำให้บริษัทเทคโนโลยีและโซเชียลยักษ์ใหญ่รวมถึงสังคมในวงกว้างให้ความสำคัญกับความเป็นส่วนตัวของข้อมูลมากขึ้นมาก ๆ ปัจจุบันการจะนำข้อมูลจากโซเชียลไปใช้มีความรัดกุมมากขึ้น (สร้างความลำบากให้นักวิจัยผู้หวังดีมากขึ้นเช่นกัน) รวมไปถึงกฎหมายอย่าง พ.ร.บ. คุ้มครองข้อมูลส่วนบุคคล พ.ศ. 2562 (PDPA) ในไทย หรือ กฎหมายคุ้มครองข้อมูลส่วนบุคคลของสหภาพยุโรป (GDPR) ก็กระตุ้นให้ผู้คนตื่นตัวในการรักษาข้อมูลของตนเองไม่ให้มิจฉาชีพนำไปใช้ให้เกิดโทษ หรือแม้แต่คำถามที่ผู้เขียนมักได้รับเวลาเล่างานที่ทำให้ผู้คนฟัง ว่า “อ้าว นี่คือการดูโหงวเฮ้งเองนี่” แล้วต่อไปเราจะไม่ตัดสินคนจากหน้าตาเพียงอย่างเดียวหรือ ผู้เขียนไม่ปฏิเสธว่าจริง ๆ แล้วการประเมินบุคลิกภาพจากใบหน้านั้นถ้าจะเรียกให้ง่ายก็สามารถเรียกว่าการดูโหงวเฮ้งได้เหมือนกัน แต่ว่าความแม่นยำนั้นไม่ได้สูงมาก นั่นคือ เราไม่สามารถใช้ AI ตัดสินลักษณะนิสัยของผู้อื่นได้จากใบหน้าได้นั่นเอง รู้เท่าทันและใช้ให้เกิดประโยชน์ [ต่อส่วนรวม] ในเมื่อศาสตร์แห่ง Computational_Psychology ได้แสดงทั้งความน่าอัศจรรย์และความน่าสะพรึงกลัวต่อมนุษยชาติออกมาแล้ว คำถามคือ แล้วเราในฐานะผู้ใช้ หรือผู้ถูกใช้ จะทำตัวอย่างไรต่อไป ผู้เขียนมองว่า ภัยร้ายที่มาพร้อมกับความก้าวหน้าของเทคโนโลยีเป็นเรื่องที่หลีกเลี่ยงไม่ได้ หากเป็นหน้าที่ของเราที่ต้องรู้ว่า ข้อมูลส่วนบุคคลต่าง ๆ สามารถบอกอะไรเกี่ยวกับตัวเราและตัวผู้อื่นได้บ้าง เพื่อป้องกันไม่ให้ผู้ไม่หวังดีนำข้อมูลเหล่านี้ไปใช้ในทางที่ผิด นอกจากนี้การที่เรารู้ถึงสิ่งร้าย ๆ ที่อาจจะเกิดขึ้นทำให้ตัวเราและสังคมตื่นตัวในการระมัดระวังและปกป้องตนเองและผู้อื่น ย่อมดีกว่าการใช้ชีวิตสวยงามไปเรื่อย ๆ ภายใต้ความเขลาอันแสนสุข (Blissful Ignorance) แต่สิ่งที่ผู้เขียนมองว่าเป็นเรื่องดีมากเรื่องหนึ่งของศาสตร์แขนงนี้ คือการที่เรารู้ว่าข้อมูลพื้น ๆ เหล่านี้สามารถทำให้เกิดทิฐิและอคติได้ จะเป็นเครื่องเตือนสติไม่ให้เราปฏิบัติกับผู้อื่นอย่างไม่เป็นธรรม ซึ่งดีกว่าการปล่อยผ่านให้เราตัดสินใจด้วยกลไกทางความคิดที่เราไม่รู้ตัว นอกจาก Computational_Psychology แล้ว ยังมีศาสตร์ที่ใกล้เคียงกันอื่น ๆ ที่ใช้คอมพิวเตอร์และการคำนวณศึกษามนุษย์และสังคม เรียกรวมกันว่า Computational_Social Science หรือสังคมศาสตร์เชิงคำนวณนั่นเอง เป็นสาขาวิชาที่มาแรงในทศวรรษนี้ ทว่า ผู้เขียนคงฝากไว้เท่านี้ให้ผู้อ่านหาความรู้เพิ่มเติมด้วยตนเองจากแหล่งอื่น ๆ ต่อไป แหล่งอ้างอิง เนื้อหาโดย ดร. พิณนรี ธีร์มกรตรวจทานและปรับปรุงโดย ดวงใจ จิตคงชื่น
5 November 2022
วิเคราะห์ NFT: ความเข้าใจในมูลค่าสินทรัพย์
ตามหลักการแล้ว มูลค่าของ Non-Fungible Token (NFT) หรือสินทรัพย์ดิจิทัลที่มีลักษณะเฉพาะตัวในทุกวันนี้ขึ้นอยู่กับว่าแต่ละคนจะมองมันอย่างไร โดยเมื่อเวลาผ่านไปมูลค่าของ NFT ชิ้นหนึ่งจะเปลี่ยนไปอย่างไรก็ยังไม่มีใครสามารถให้คำตอบได้แน่ชัด ( NFT คือ ) ตลอด 2-3 ปีที่ผ่านมา แนวคิดของสินทรัพย์ดิจิทัลที่มีลักษณะเฉพาะตัว (NFT) ได้กลายเป็นตัวแทนของนวัตกรรมเทคโนโลยีที่โดดเด่นที่สุดอย่างหนึ่งในยุคนี้ ตามแก่นแท้ของ NFT คือสินทรัพย์ดิจิทัลที่ถูกสร้างขึ้น ซื้อขาย และแลกเปลี่ยนในตลาด Blockchain ส่วนใหญ่ผ่านทางสกุลเงินคริปโต เช่น Ethereum เป็นต้น การผสมผสานเทคโนโลยี Blockchain เข้าด้วยกันสามารถทำให้ผู้ใช้สามารถพิสูจน์ได้ว่า NFT แต่ละชิ้นเป็นสินทรัพย์ดิจิทัลของแท้ที่ไม่เหมือนใคร นอกจากนี้ Blockchain ยังสามารถช่วยตามรอยเจ้าของคนก่อน ๆ ได้อีกด้วย ตั้งแต่มีการเปิดตัวในวงกว้างในปี 2017 ผ่านทางเกม เช่น Axie Infinity, CryptoKitties, และ My Crypto Heroes เป็นต้น NFT ก็ได้รับความนิยมอย่างมากมายมหาศาลจากคนทั่วโลก จากการประสบความสำเร็จในการผสมผสานเข้ากับโลกแห่งศิลปะดิจิทัล NFT บางชิ้นสามารถขายได้หลายล้าน หรือแม้กระทั่งหลายสิบล้านดอลลาร์ ทำให้มีการคาดคะเนกันอย่างแพร่หลายถึงมูลค่าที่แท้จริงของ NFT ในฐานะสินทรัพย์ดิจิทัลประเภทใหม่ขึ้นมา อย่างไรก็ตาม เช่นเดียวกับสินค้าโภคภัณฑ์และสินทรัพย์ดิจิทัลอื่น ๆ ตัว NFT เกือบทั้งหมดมีมูลค่าน้อยมาก ไปจนถึงไม่มีมูลค่าที่แท้จริงเลย แต่มูลค่าของ NFT กลับขึ้นอยู่กับความต้องการที่ผันผวนของตลาดผู้บริโภค NFT สร้างมูลค่าอย่างไร โดยพื้นฐานแล้ว จุดดึงดูดของ NFT คือการคนซื้อสามารถเป็นเจ้าของสินทรัพย์ดิจิทัลนั้น ๆ ได้เลย ไม่ว่าจะเป็นงานศิลปะชิ้นหนึ่ง สิ่งของที่ใช้ในวิดีโอเกม หรือแม้แต่ไฟล์ ทวีตแรกสุด ของแจ็ค ดอร์ซีย์ อดีต CEO ของทวิตเตอร์ แม้ว่าจะมีอีกบุคคลหนึ่งที่ “เป็นเจ้าของ” ชิ้นดั้งเดิมที่ถูกเปลี่ยนให้เป็น NFT (เช่นศิลปินปล่อยเพลงหรือ มิวสิควิดีโอเป็น NFT) ผู้ซื้อ NFT ก็สามารถอวดอ้างสิทธิ์การเป็นเจ้าของไฟล์ดั้งเดิมได้  หลังจากนั้นเจ้าของจะเลือกถือสิทธิ์การเป็นเจ้าของ NFT นั้นไว้หรือจะเลือกขายต่อเพื่อเอากำไรก็ย่อมได้ เพื่อทำความเข้าใจเรื่องนี้ เราต้องดูว่ามูลค่าของ NFT แปรผันตามมูลค่าที่ผู้ใช้มองมันอย่างไร ตัวอย่างเช่น ถ้าผู้ใช้จำนวนมากในกลุ่มตลาดผู้บริโภคกลุ่มหนึ่งมอง NFT ชิ้นนั้นว่าเป็นของหายากกว่าชิ้นอื่น ๆ ผู้ใช้เหล่านั้นยิ่งให้มูลค่า NFT ดังกล่าวมากขึ้น เช่นเดียวกับผู้สะสมงานศิลปะหรือของที่ระลึกเกี่ยวกับกีฬา มูลค่านั้นไม่ได้มีอยู่ในตัวสิ่งของที่พวกเขาได้มา แต่อยู่ที่ว่าตลาดมองเห็นมันอย่างไร  อย่างไรก็ตาม ยังมีอีกด้านหนึ่งของ NFT ที่สามารถช่วยสร้างมูลค่าเพิ่มเติมได้ผ่านการผสมผสานการใช้สัญญาอัจฉริยะหรือสมาร์ทคอนแทรคท์ การสร้างมูลค่าในกรรมสิทธิ์ตลอดชีพผ่านสัญญาอัจฉริยะ สัญญาเหล่านี้อนุญาตให้ผู้ใช้สามารถพิสูจน์อัตลักษณ์และความเป็นเจ้าของ NFT ใดก็ได้เมื่อมีการทำธุรกรรมซื้อขาย เพราะภายใน Blockchain นั้นมีโปรแกรมสำหรับ สัญญาอัจฉริยะ อยู่ ซึ่งนอกจากจะช่วยให้ผู้ใช้สามารถเห็นได้ว่าใครเป็นคนแรกที่สร้าง NFT ชิ้นนั้นแล้ว สัญญาอัจฉริยะยังสามารถอนุญาตให้ผู้สร้างคนแรกได้รับเงินส่วนหนึ่งในรูปแบบของ การจ่ายเงินค่าสิทธิ จากธุรกรรมแต่ละครั้งที่เกิดขึ้นได้ด้วย บางทีนี่อาจเป็นวิธีที่ถูกต้องและยุติธรรมที่สุดที่สินทรัพย์ดิจิทัลชนิดใหม่อย่าง NFT สามารถให้ส่วนแบ่งโดยตรงกับทั้งผู้สร้างและผู้บริโภคอย่างเท่าเทียม ยิ่ง NFT นั้นขายได้ราคามากเท่าไร ผู้สร้างคนแรกก็จะยิ่งสามารถได้รับค่าสิทธิมากขึ้นเท่านั้นผ่านสัญญาอัจฉริยะของสินทรัพย์นั้น Andy Rosen (แอนดี้ โรเซ็น) นักเขียนด้านการลงทุนของ Nerdwallet กล่าวว่า “ในทางกลับกัน ผู้ซื้อที่สนับสนุนผู้สร้างที่กำลังลำบากด้วยการซื้อ NFT อาจมีโอกาสได้ส่วนแบ่งรายรับจากโครงการอื่น ๆ ในภายภาคหน้า”  Rosen อธิบายถึงอีกวิธีการหนึ่งซึ่ง NFT สามารถสร้างมูลค่าได้โดยการใช้วิธีลงทุนขยายธุรกิจอย่างต่อเนื่องและยก VeeFriends ของนักลงทุน Gary Vaynerchuk (แกรีย์ เวย์เนอร์ชัค) มาเป็นตัวอย่าง คนที่ซื้อ NFT ชุดนี้หนึ่งชุด จะได้รับตั๋วฟรีเข้าร่วม VeeCon ซึ่งเป็นการประชุมใหญ่ทางธุรกิจประจำปีของ Vaynerchuk อีกทั้งยังเป็น “งานอีเว้นท์สำหรับผู้ถือ NFT [VeeFriend] โดยเฉพาะ” อีกด้วย บางคนอาจประหลาดใจเมื่อทราบว่า หากอ้างอิงจากแนวคิดทั่ว ๆ ไปนั้น NFT ไม่มีมูลค่าที่แท้จริงอยู่เลย แต่นี่ก็ไม่ได้หมายความว่า NFT ในฐานะสินทรัพย์ดิจิทัลกลุ่มหนึ่งจะไม่มีมูลค่า แม้ว่าจะมีหลายปัจจัยที่มีอิทธิพลต่อมูลค่าที่ NFT หนึ่ง ๆ จะถูกตีราคา แต่ปัจจัยเหล่านั้นแทบทั้งหมดได้รับอิทธิพลและถูกกำหนดโดยตลาดผู้ใช้เพียงอย่างเดียว ยิ่ง NFT หายากหรือมีประโยชน์มากเท่าไร หรือยิ่งสินทรัพย์บางอย่างมีศักยภาพในการลงทุนสูงเท่าไร ผู้ใช้หลายคนยิ่งมองเห็นมูลค่าสูงมากขึ้นเท่านั้น หากไม่มีมูลค่าที่รับรู้จากตลาด NFT ก็ไม่ได้มีมูลค่ามากไปกว่าสินทรัพย์หรือสินค้าโภคภัณฑ์อื่น ๆ เนื่องจากหลายๆ คนยังถือว่า NFT เป็นนวัตกรรมใหม่ ศักยภาพที่แท้จริงของมันในฐานะสิ่งสร้างมูลค่าจึงยังคงถูกมองข้ามอยู่  แม้ว่าอาจมีเปลี่ยนแปลงในอนาคต แต่จนกว่าวันนั้นจะมาถึง NFT ก็มีมูลค่าแค่เท่าที่ตลาดเห็นว่ามันมี บทความโดย Hironobu Uenoเนื้อหาจากบทความของ InformationWeekแปลและเรียบเรียงโดย ไอสวรรค์ ไชยชะนะตรวจทานและปรับปรุงโดย ดวงใจ จิตคงชื่น
24 August 2022
เทคนิคการสังเกตรูปภาพหรือวิดีโอใบหน้าที่ถูกดัดแปลงด้วยเทคโนโลยี DeepFake
เทคโนโลยี “DeepFake” ได้ถูกนิยามในปี พ.ศ. 2560 เมื่อนักวิจัยได้เริ่มนำโครงข่ายประสาทเทียมเชิงลึก (Deep Neural Networks) ซึ่งเป็นเทคโนโลยีทางปัญญาประดิษฐ์สมัยใหม่มาปรับใช้กับการตกแต่งรูปภาพหรือวีดิโอใบหน้าเพื่อเปลี่ยนแปลงการแสดงสีหน้า ท่าทาง หรือแม้แต่คำพูด ในปัจจุบันเทคโนโลยี DeepFake ได้ถูกพัฒนาไปอย่างรวดเร็วจนทำให้ระบบมีความยืดหยุ่นและสามารถตัดต่อรูปภาพและวีดีโอใบหน้าได้โดยง่าย โดยที่ DeepFake สมัยใหม่นั้นต้องการเพียงแค่รูปภาพใบหน้าตรงเพียง 1 ภาพในการดัดแปลงรูปภาพและตัดต่อวีดิโอ และแม้แต่แอปพลิเคชันบนโทรศัพท์มือถือก็สามารถทำได้ โดยวิดีโอที่ถูกดัดแปลงนั้นยังมีความสมจริงจนทำให้การตรวจสอบความถูกต้องของวิดีโอนั้นเป็นไปได้ยาก ซึ่งความสมจริงของวีดิโอเหล่านี้ทำให้เกิดความกังวลต่อความน่าเชื่อถือของสื่อดิจิทัลมากขึ้น โดยเฉพาะในยุคปัจจุบันที่มีกลุ่มมิจฉาชีพได้พยายามหลอกหลวงประชาชนด้วยรูปแบบต่าง ๆ เราอาจได้เห็นข่าวที่มิจฉาชีพเริ่มนำเอาเทคโนโลยี DeepFake มาปลอมเป็นตำรวจเพื่อหลอกให้เหยื่อโอนเงินมากขึ้น ดังนั้นการตระหนักและรู้เท่าทันถึงความก้าวหน้าของเทคโนโลยี DeepFake จึงเป็นสิ่งที่มีความสำคัญอย่างมากในยุคปัจจุบัน ทีมวิจัยจาก mit meadia lab ได้ตั้งข้อเสนอแนะสำหรับเทคนิคในการสังเกตรูปภาพหรือวิดีโอที่ถูกดัดแปลงด้วยเทคโนโลยี DeepFake ไว้ดังนี้ นอกจากข้อสังเกตเหล่านี้แล้ว นักวิจัยทั่วโลกเองก็ยังได้ให้ความสนใจกับการพัฒนาเทคโนโลยีทางปัญญาประดิษฐ์เพื่อตรวจสอบความถูกต้องของข้อมูลรูปภาพและวิดีโอมากขึ้น ยกตัวอย่างเช่น เราสามารถใช้แอปพลิเคชันของ deepware ซึ่งเป็นเว็บแอปพลิเคชันแบบฟรีสำหรับการตรวจสอบวิดีโอ DeepFake เบื้องต้นได้อีกด้วย อย่างไรก็ตามความสามารถของการตรวจสอบข้อมูลวิดีโอ DeepFake แบบอัตโนมัติด้วยแบบจำลองทางปัญญาประดิษฐ์เองก็ยังมีข้อจำกัด จากผลการทดสอบของแบบจำลองกว่า 35,000 ชิ้นปรากฎว่าแบบจำลองที่ดีที่สุดสามารถทำนายผลความถูกต้องของข้อมูลวิดีโอ DeepFake ได้เพียงแค่ 65 % บนชุดข้อมูลขนาดใหญ่ของ Deepfake Detection Challenge (DFDC) ในปี 2562 เนื้อหาโดย อาจารย์ ดร.กฤตภาส สงศรีอินทร์ตรวจทานและปรับปรุงโดย ดวงใจ จิตคงชื่น
3 July 2022
Big Data เพื่อส่งเสริมการเพิ่มพื้นที่สีเขียวในเขตเมืองและชุมชน
                 การเติบโตในภาคอุตสาหกรรมทำให้ความเป็นเมืองมีการขยายตัวมากขึ้น และทำให้พื้นที่สีเขียวในเขตเมืองและชุมชน ถูกปรับเปลี่ยนแปลสภาพจากเดิมที่เคยเป็นพื้นที่ทางการเกษตร หรือพื้นที่ป่าธรรมชาติไปเป็นพื้นที่สำหรับที่อยู่อาศัย อาคารสำนักงาน ร้านค้า และโรงงานอุตสาหกรรมมากขึ้น ซึ่งองค์การสหประชาชาติ (United Nation) โดย Department of Economic and Social Affairs Population Dynamics ได้จัดทำรายงานการประเมินและการคาดการณ์จำนวนประชากรเมืองและชนบทของประเทศไทย นับแต่ปี ค.ศ. 1950 เป็นต้นมา โดยพบว่าจำนวนประชากรจากชนบทจะลดลงและเป็นประชากรในเมืองเพิ่มมากขึ้น โดยแสดงดังรูปที่ 1 ( Big Data เพื่อเพิ่มพื้นที่สีเขียว )                  ซึ่งการเติบโตของเมืองที่ขยายตัวอย่างรวดเร็วนั้น มักมาพร้อมกับปัญหาทางด้านสิ่งแวดล้อม เช่น การสูญเสียความหลากหลายทางชีวภาพ มลพิษทางอากาศ มลพิษทางน้ำ และปัญหาในเรื่องของพื้นที่สีเขียว ก็เป็นหนึ่งในปัญหาทางด้านสิ่งแวดล้อม เนื่องจากพื้นที่สีเขียวเป็นส่วนที่มีการดูดกลับของปริมาณก๊าซคาร์บอนไดออกไซด์ หรือมีการกักเก็บก๊าซคาร์บอนไดออกไซด์ จึงถือว่าเป็นด้านที่มีความสำคัญด้านหนึ่ง ซึ่งเมื่อพูดถึงพื้นที่สีเขียวจะตีความว่าเป็นพื้นที่ป่าไม้ จากข้อมูลในปี พ.ศ. 2563 ประเทศไทยมีพื้นที่ป่าไม้ อยู่ที่ 163,765.57 ตร.กม. คิดเป็นร้อยละ 31.64 ของพื้นที่ทั้งหมดของประเทศ ซึ่งมีปริมาณพื้นที่ลดลงจากปี พ.ศ. 2562                  โดยปัจจัยที่ทำให้พื้นที่ป่าไม้ลดลง ได้แก่ การนำไปทำเป็นพื้นที่ทางการเกษตร ปัญหาจากไฟป่า ปัญหาการลักลอบตัดไม้ และปัญหาการขยายตัวของเมือง จากการสำรวจและจัดทำฐานข้อมูล (Database) พื้นที่ป่าไม้ในประเทศไทยเพื่อใช้ในการบริหารจัดการพื้นที่ป่าไม้ของหน่วยงานต่าง ๆ พบว่าในความเป็นจริงมีพื้นที่ ที่อยู่นอกเขตพื้นที่ป่าไม้ซึ่งเป็นพื้นที่สีเขียวในเขตเมืองและชุมชน ที่มีความสำคัญไม่น้อยไปกว่าพื้นที่สีเขียวในพื้นที่ป่าไม้ ซึ่งการพิจารณาพื้นที่สีเขียวของเมืองโดยใช้ขอบเขตพื้นที่การปกครองของเมืองเป็นตัวกำหนดว่าภายในพื้นที่ของเมืองนั้นมีพื้นที่สีเขียวประเภทอะไรอยู่บ้าง มีความเพียงพอต่อจำนวนประชากรที่อยู่ภายในเมืองนั้นมากน้อยเพียงไรนั้นมีความสำคัญ เนื่องจากประชากรส่วนมากไม่ได้อยู่ในพื้นที่ป่าไม้แต่จะอยู่ในพื้นที่เมือง แต่เรากลับมองข้ามพื้นที่สีเขียวในเขตเมืองและชุมชนที่อยู่ใกล้ตัว ที่อยู่ในชีวิตประจำวันของเรา                   ในปี พ.ศ. 2560 มีความพยายามเริ่มพัฒนาฐานข้อมูลการรายงานพื้นที่สีเขียวในเขตเมืองและชุมชน โดยกรมส่งเสริมคุณภาพสิ่งแวดล้อม กระทรวงทรัพยากรธรรมชาติและสิ่งแวดล้อม ในชื่อ “GreenArea” แสดงดังรูปที่ 2             โดยมีวัตถุประสงค์เพื่อให้เมืองต่าง ๆ ทั่วประเทศไทยมีเครื่องมือและมีระบบใช้ในการประเมินพื้นที่สีเขียวของตนเอง ซึ่งจะช่วยให้สามารถกำหนดนโยบายและทิศทางการพัฒนาเมืองอย่างสมดุลและยั่งยืนอีกทั้งยังเป็นเครื่องมือช่วยในการส่งเสริมการมีส่วนร่วม และการปลูกจิตสำนึกภาคประชาสังคมและท้องถิ่นให้มีการอนุรักษ์และจัดการทรัพยากรธรรมชาติ เมื่อระยะเวลาผ่านไป 5 ปี เริ่มมีหน่วยงาน ภาคี และเครือข่ายที่ให้ความสนใจทางด้านพื้นที่สีเขียวในเขตเมืองและชุมชนมากขึ้น ทำให้ปริมาณข้อมูลที่ถูกจัดเก็บในระบบมีมากขึ้น (Data Volume) มีความหลากหลายของประเภทของข้อมูล (Data Variety) และมีความถี่ในการผลิตข้อมูล (Data Velocity) ที่เพิ่มขึ้น ทำให้มองเห็นภาพของเทคโนโลยีฐานข้อมูลขนาดใหญ่หรือที่เรียกกันว่า “Big Data” ว่าควรถูกนำมาประยุกต์ใช้ในการจัดเก็บข้อมูลสำหรับระบบรายงานพื้นที่สีเขียวในเขตเมืองและชุมชน เพื่อให้สามารถจัดเก็บพื้นที่สีเขียวที่อยู่ภายในขอบเขตของเมืองและชุมชน และต้นไม้ยืนต้นทั้งหมดได้ เพื่อจะได้นำไปใช้วิเคราะห์ข้อมูล เช่น การวิเคราะห์สัดส่วนพื้นที่สีเขียวต่อพื้นที่ทั้งหมด การวิเคราะห์สัดส่วนพื้นที่สีเขียวต่อประชากร การวิเคราะห์ความหลากหลายทางชีวะภาพ หรือแม้กระทั้งเป็นฐานข้อมูลเพื่อการพัฒนาเศรษฐกิจชีวภาพในกับชุมชน             ในต่างประเทศมีงานวิจัยหลายงงานที่น่าสนใจ ที่มีการใช้เทคโนโลยีฐานข้อมูลขนาดใหญ่ นำมาวิเคราะห์ข้อมูลที่เกี่ยวข้องกับพื้นที่สีเขียว เช่น ในประเทศจีนมีการวิเคราะห์หาความเหลื่อมล้ำในการเข้าถึงพื้นที่สีเขียวของชุมชนต่าง ๆ โดยมีการใช้ปัจจัย ขนาดพื้นที่สีเขียว การปกคลุมเรือนยอดของต้นไม้ ระยะทางจากชุมชนเดินทางมาถึงพื้นที่สีเขียว ค่าใช้จ่ายในการเดินทาง [1] และมีการติดตามประเมินสวนสาธารณะในเมือง โดยดูจากการความสามารถในการเข้าถึงพื้นที่สีเขียวและคุณภาพของพื้นที่สีเขียว [2] หรือในประเทศญี่ปุ่น ทำการวิเคราะห์การเปลี่ยนแปลงการใช้พื้นที่สีเขียวของประชาชนก่อนและระหว่างการระบาดของ COVID-19 โดยการวิเคราะห์ข้อมูลขนาดใหญ่โดยใช้ข้อมูล GPS ติดตามมือถือ [3] โดยพบว่าพฤติกรรมการออกนอกบ้านมีแนวโน้มสูงที่จะหลีกเลี่ยงการออกนอกบ้าน โดยมีจำนวน เวลา และระยะทางของการออกนอกบ้านลดลง มีแนวโน้มในการใช้พื้นที่สีเขียวในใจกลางเมืองลดลง และมีการเพิ่มขึ้นของพื้นที่สีเขียวใกล้บ้านหรือภายในบ้านแทน แสดงดังรูปที่ 3            จากตัวอย่างงานในต่างประเทศ ทำให้เห็นว่าข้อมูลที่ใช้ในการวิเคราะห์เรื่องพื้นที่สีเขียวทั้งหมดมีการจัดเก็บข้อมูลในหลายมิติและมีปริมาณข้อมูลที่มาก ดังนั้นจึงปฏิเสธไม่ได้เลยที่จะต้องมีการนำเทคโนโลยีฐานข้อมูลขนาดใหญ่มาใช้ในการจัดเก็บข้อมูล เพื่อนำไปใช้วิเคราะห์ข้อมูลในด้านต่าง ๆ ของพื้นที่สีเขียวในเขตเมืองและชุมชนได้อย่างรวดเร็วและมีประสิทธิภาพ ซึ่งจะส่งผลประโยชน์ไปยังการบริหารจัดการด้านพื้นที่สีเขียวของเมืองและอาจจะนำไปประยุกต์ใช้งานกับการแก้ไขปัญหาทางด้านสิ่งแวดล้อมในมิติอื่นได้ในอนาคต เนื้อหาโดย ว่าที่ ร.ต. ดร.องอาจ อุ่นอนันต์ตรวจทานและปรับปรุงโดย ดวงใจ จิตคงชื่น อ้างอิง [1] Yang Chen, Wenze Yue, Daniele La Rosa, Which communities have better accessibility to green space? An investigation into environmental inequality using big data, Landscape and Urban Planning, Volume 204, 2020, ISSN 0169-2046. [2] Xu, Z.; Gao, X.; Wang, Z.; Fan, J. Big Data-Based Evaluation of Urban Parks: A Chinese Case Study. Sustainability 2019, 11, 2125. https://doi.org/10.3390/su11072125 [3] Ueno, Y., Kato, S., Mase, T., Funamoto, Y., Hasegawa, K. (2022). Changes in the Use of Green Spaces by Citizens Before and During the First COVID-19 Pandemic: A Big Data Analysis Using Mobile-Tracking GPS Data in Kanazawa, Japan. In: Nakamura, F. (eds) Green Infrastructure and Climate Change Adaptation. Ecological Research Monographs. Springer, Singapore. https://doi.org/10.1007/978-981-16-6791-6_16 [4] This article originally appeared on Maxar’s website on May 3, 2018, and later in Geospatial World on May...
22 June 2022
พื้นฐานการใช้งาน Data Analysis Expressions (DAX)
ในการสร้าง Data Visualization จะต้องมีการจัดการข้อมูลเพื่อให้อยู่ในรูปแบบที่เหมาะสมสำหรับในไปใช้ในการสร้าง Dashboard สำหรับใน Power BI เรามีเครื่องมือที่ใช้ในการจัดการข้อมูลที่เรียกว่า DAX สำหรับบทความนี้ เราจะสำรวจว่า DAX คืออะไร และจัดเตรียมข้อมูลในขั้นลึกขึ้นโดยใช้เครื่องมือตัวนี้กัน DAX คืออะไร Data Analysis Expressions หรือที่เรียกกันโดยทั่วไปว่า DAX คือชุดฟังก์ชันเพื่อทำงานกับข้อมูลในผลิตภัณฑ์ของไมโครซอฟต์ เช่น Power Pivot, Power BI และ SQL Analysis Server ชุดฟังก์ชันของ DAX จะคล้ายกับชุดฟังก์ชันที่ใช้งานบนโปรแกรม Excel โดยชุดฟังก์ชันที่ใช้งานบน Excel จะทำงานกับข้อมูลในลักษณะที่เป็น แผ่นงาน (Worksheet), ตาราง (Table) และเซล (Cell) ในขณะที่ชุดฟังก์ชันของ DAX จะทำงานกับข้อมูลในลักษณะที่เป็น ตาราง (Table), คิวรี่ (Query), คอลัมน์ข้อมูล (Column) และแถวข้อมูล (Row) จึงทำให้การออกแบบฟังก์ชันและอากิวเมนต์ของชุดฟังก์ชันของ DAX และชุดฟังก์ชันที่ใช้งานบน Excel แตกต่างกัน ในบทความนี้เราจะพูดถึงสิ่งที่ควรทราบในการใช้งานชุดฟังก์ชันของ DAX และพื้นฐานในการใช้งานชุดฟังก์ชันของ DAX โดยอ้างอิงการใช้งานในโปรแกรม Power BI ชนิดของข้อมูลใน DAX ข้อมูลที่เป็นตัวเลข ข้อมูลที่ไม่ใช่ตัวเลข เลขทศนิยม (Decimal Number)เลขทศนิยมคงที่ (Fixed Decimal Number)จำนวนเต็ม (Whole Number)เปอร์เซ็นต์ (Percent)วันที่/เวลา (Date/Time)วันที่ (Date)เวลา (Time)วันที่/เวลา/โซนเวลา (Date/Time/Timezone)ระยะเวลา (Duration)จริง/เท็จ (True/False หรือ Boolean) ข้อความ (Text หรือ String)ไบนารี่ (Binary หรือ Blob) การอ้างอิงถึงตารางข้อมูล การอ้างอิงถึงตารางข้อมูลใน DAX จะใช้เครื่องหมาย Single Quotation Marks ‘…’ ครอบชื่อตารางข้อมูล เช่น ตารางข้อมูล FacotoryData จะถูกเขียนอ้างอิงด้วย ‘FactoryData’ (ถ้าชื่อตารางไม่มีช่องว่าง สามารถยกเว้นการใส่เครื่องหมาย Single Quotation Marks ได้) การอ้างอิงถึงคอลัมน์ข้อมูลในตาราง การอ้างอิงถึงคอลัมน์ข้อมูลในตาราง จะใช้เครื่องหมาย Square Brackets […] ครอบชื่อคอลัมน์ข้อมูล เช่น คอลัมน์ชื่อ Country จะถูกเขียนอ้างอิงด้วย [Country] เช่น คอลัมน์ชื่อ Country ในตาราง Province จะถูกเขียนอ้างอิงด้วย ‘Province'[Country] คอลัมน์คำนวณ (Calculated Column) คอลัมน์คำนวณ เป็นการสร้างคอลัมน์ใหม่เพิ่มเติมเข้าไปในตารางข้อมูลใน Data Model ของ Power BI (ไม่ได้เพิ่มคอลัมน์ใหม่ในไฟล์ข้อมูลต้นทาง) การประมวลผลค่าข้อมูลใน Calculated Column จะเกิดขึ้นเมื่อมีการประมวลผลข้อมูลจาก Data Model แล้วนำผลที่ได้จากการประมวลผลจัดเก็บลงในคอลัมน์ใหม่ที่สร้างขึ้น ค่าที่ได้จะปรากฏในตารางข้อมูล คอลัมน์คำนวณจะทำงานกับแถวข้อมูลปัจจุบัน (Current Row) การคำนวณจะอยู่บนพื้นฐานของข้อมูลแถวนั้น ๆ และนำค่าที่ได้มาใส่ไว้ในคอลัมน์ใหม่ที่สร้างขึ้นบนแถวข้อมูลเดียวกัน เช่น ในรูปที่ 1 ตารางข้อมูล Order ทำการสร้างคอลัมน์ใหม่เพื่อเก็บข้อมูลยอดขาย ตั้งชื่อคอลัมน์ว่า Sales โดยคอลัมน์นี้เกิดจากการคำนวณของคอลัมน์จำนวน (Amount) และคอลัมน์ราคาต่อหน่วย (UnitPrice) บนแถวข้อมูลปัจจุบัน สามารถสร้างคอลัมน์คำนวณโดยเขียนคำสั่งดังรูป สูตรคำนวณ (Measure) สูตรคำนวณ เป็นการสร้างสูตรสำหรับการคำนวณข้อมูล โดยสูตรจะอยู่ในรูปของนิพจน์ Expression ในตารางข้อมูล ส่วนใหญ่มักใช้งานร่วมกับฟังก์ชันผลรวม (Aggregate) ต่าง ๆ เช่น การหาค่าผลรวม, การหาค่าเฉลี่ย, การหาค่าต่ำสุดหรือสูงสุด ฟังก์ชันหรือสูตรจะถูกประมวลผลเมื่อมีการเรียกดูข้อมูลหรือแสดงผล ดังนั้นผลของการคำนวณ Measure จะไม่ปรากฏในตารางข้อมูล แต่จะเป็นการบันทึกสูตรเก็บไว้สำหรับการเรียกคำนวณเมื่อมีการต้องการแสดงผล เช่น ในรูปที่ 2 ตารางข้อมูล Order ต้องการคำนวณค่าผลรวมของยอดขาย ตั้งชื่อ Measure ว่า SumSales สามารถสร้างสูตรคำนวณโดยเขียนคำสั่งดังรูป ตารางคำนวณ (Calculated Table) ตารางคำนวณ คือตารางข้อมูลที่เกิดขึ้นจากการใช้ฟังก์ชันตารางใน DAX เช่น FILTER, VALUES, ALL โดยเมื่อสั่งให้ฟังก์ชันทำงานแล้ว ฟังก์ชันจะส่งค่ากลับมาเป็นตารางข้อมูล ไม่ใช่ค่าข้อมูลเพียงค่าเดียว และเมื่อได้ตารางข้อมูลแล้วอาจจะมีการนำตารางเข้าไปทำงานต่อในสูตรคำนวณหรือคอลัมน์คำนวณทันที หรืออาจจะเก็บไว้เป็นตารางในระบบเพื่อไว้ใช้งานต่อ เช่น จากตารางข้อมูล Order ทำการสร้างตารางใหม่ ตั้งชื่อว่า ItemSales โดยทำการกรองข้อมูลจากตาราง Order เลือกค่าของข้อมูลที่คอลัมน์ Amount มีค่ามากกว่า 10 ชุดฟังก์ชันใน DAX ชุดฟังก์ชันใน DAX สามารถแบ่งเป็นหมวดหมู่ได้ประมาณ 11 หมวดหมู่ แยกตามลักษณะการใช้งานได้ดังต่อไปนี้ ตัวอย่างการใช้งาน ต่อไปเราจะมาทดลองการใช้งานฟังก์ชัน DAX ในหมวดวันที่และเวลา (Date and Time Functions) โดยใช้งานฟังก์ชันผ่านรูปแบบของคอลัมน์คำนวณ และสูตรคำนวณ โดยทดลองการใช้งานในโปรแกรม Power BI Desktop เริ่มจาก เลือกมุมมองเป็น Data View คลิกเลือกคอลัมน์ FullDate แล้วไปที่เมนู Column tools > Format สามารถเลือกเปลี่ยนมุมมองการแสดงผลข้อมูลวันที่ได้ (เป็นการเปลี่ยนเฉพาะมุมมองในการแสดงผล ไม่ได้เปลี่ยนในไฟล์ข้อมูล) ในที่นี้ทดลองเปลี่ยนรูปแบบการแสดงผลเป็น วัน/เดือน/ปี (dd/mm/yyyy) ฟังกชัน DAY ใช้แสดงข้อมูลหมายเลขวันที่ (สังเกตผลลัพธ์ในคอลัมน์ที่ถูกสร้างขึ้น) สรุปตัวอย่างการใช้งานฟังก์ชันวันที่และเวลา โดยคำนวณในรูปแบบ Calculated Column จะสังเกตเห็นว่า ผลของการสร้างสูตรคำนวณ (Measure) จะไม่ปรากฏในตารางข้อมูล แต่จะเป็นการบันทึกสูตรเก็บไว้สำหรับการเรียกคำนวณเมื่อมีการต้องการแสดงผล ดังนั้นเราจึงต้องนำ Measure ที่สร้างขึ้นไปทำการแสดงผล จึงจะเห็นผลลัพธ์จากการคำนวณดังกล่าว โดยเลือกมุมมองเป็น Design View ไปที่แถบ Visualizations > คลิกเลือก Visual ที่ชื่อว่า Card จากนั้นคลิกเลือก หรือ...
10 January 2022
การเตรียมข้อมูลเบื้องต้นด้วย Power BI (Basic Data Preparation with Power BI)
Microsoft Power BI เป็นซอฟต์แวร์ตัวหนึ่งในกลุ่มของเครื่องมือสำหรับการสร้าง Data Visualization ซึ่งกำลังได้รับความนิยมเพิ่มมากขึ้นในปัจจุบัน ซึ่งนอกจากจะมีความสามารถในการสร้าง Data Visualization แล้ว ยังมีความสามารถในการบริหารจัดการข้อมูล รวมไปถึงการเตรียมข้อมูลให้เหมาะสมสำหรับการนำไปสร้าง Data Visualization กลุ่มผลิตภัณฑ์ของ Power BI แบ่งหลัก ๆ ออกเป็น Power BI Desktop แอปพลิเคชันสำหรับเครื่องเดสก์ท็อป Windows, Power BI Service ให้บริการ SaaS (Software as a Service) แบบออนไลน์ที่, Power BI Mobile แอปพลิเคชันสำหรับอุปกรณ์เคลื่อนที่ และ Power BI Report Server องค์ประกอบของโปรแกรม สำหรับในส่วนของโปรแกรม Power BI Desktop มีการแบ่งส่วนการทำงานออกเป็น 2 ส่วนด้วยกันคือ (1) Power BI Desktop เป็นส่วนที่ใช้ในการสร้าง Visualization และ (2) Power Query เป็นส่วนที่ใช้สำหรับการบริหารจัดการเกี่ยวกับข้อมูล เช่น กระบวนการทำความสะอาดข้อมูล (Data cleansing หรือ Data scrubbing) หรือกระบวนการแปลงข้อมูล (Data Transformation) ในบทความนี้เราจะมาลองสำรวจรูปแบบการบริหารจัดการข้อมูลรูปแบบต่าง ๆ ที่พบกันได้บ่อยในการทำงานกับข้อมูล พร้อมทั้งคำสั่งที่เกี่ยวข้องไปด้วยกัน การเตรียมข้อมูลเบื้องต้นด้วย Power BI 1. การลบแถวข้อมูล (คำสั่ง Remove Rows) ที่ Ribbon Home > Remove Rows > Remove Top Rows > Number of rows: 2 (ระบุจำนวนแถวข้อมูลที่ต้องการลบ) 2. การตั้งแถวแรกให้เป็นชื่อคอลัมน์ ในการนำเข้าข้อมูลที่เป็นไฟล์ Excel แล้วพบว่าแถวข้อมูลที่ควรจะเป็นหัวตารางหรือชื่อคอลัมน์ กลับกลายเป็นส่วนหนึ่งของชุดข้อมูล กรณีเช่นนี้สามารถแก้ไขได้โดยใช้คำสั่ง Use First Row as Headers : ที่ Ribbon Home > User First Row as Headers 3. การลบคอลัมน์ (คำสั่ง Remove Columns) คลิกเลือกคอลัมน์ที่ต้องการลบ แล้วไปที่ Ribbon Home > Remove Columns 4. การปรับเปลี่ยนชนิดหรือรูปแบบของข้อมูล (คำสั่ง Data Type Setting) * ส่วนนี้จะทำงานที่ Power BI Desktop 5. การแยกคอลัมน์ (คำสั่ง Split Column) ในการจัดเก็บข้อมูลอาจจะพบลักษณะการจัดเก็บหลาย ๆ ข้อมูลในคอลัมน์เดียวกัน ตัวอย่างเช่น (ดูรูปประกอบ) มีการเก็บข้อมูลชื่อหนัง (ปีที่เริ่มฉาย) อยู่ภายในคอลัมน์เดียวกัน หากเราต้องการแยกข้อมูลสองเรื่องนี้ออกจากกัน สามารถใช้คำสั่งในการแยกคอลัมน์ได้ แต่จะต้องมีเงื่อนไขที่สามารถแยกคอลัมน์นั้น ๆ เช่น มีสัญลักษณ์พิเศษ หรือแยกตามตำแหน่งที่ระบุ 6. การรวบคอลัมน์ด้วยคำสั่ง Unpivot ในการเก็บข้อมูล โดยเฉพาะอย่างยิ่งรูปแบบของไฟล์ Excel ที่นอกจากจะเป็นการเก็บข้อมูลแล้ว ยังเป็นการแสดงข้อมูลในรูปแบบของรายงานด้วย ตัวอย่างเช่น (ดูรูปประกอบ) แสดงข้อมูลยอดขายรายเดือนในรายคอลัมน์ และแสดงข้อมูลรายปีในรายแถวข้อมูล หากต้องการนำข้อมูลลักษณะดังกล่าวมาสร้างเป็นกราฟ เพื่อให้สามารถเปรียบเทียบยอดขายรายเดือนได้ จะต้องทำการรวมคอลัมน์เดือนดังกล่าวให้เป็นคอลัมน์เดียวกัน ลักษณะนี้สามารถทำได้ด้วยการใช้คำสั่ง Unpivot Columns 7. การรวมข้อมูลในลักษณะของการรวมแถวข้อมูล (คำสั่ง Append Queries) หลาย ๆ ครั้งในการเก็บข้อมูลในรูปแบบของไฟล์ Excel จะมีการเก็บข้อมูลที่มีรูปแบบเดียวกัน แต่แยกเป็นหลาย ๆ Sheet เพื่อความสะดวกในการทำรายงานสรุป แต่เมื่อต้องการนำข้อมูลทั้งหมดมารวมกันเพื่อวิเคราะห์เปรียบเทียบ จะต้องทำการรวมข้อมูลจากหลาย ๆ Sheet หรือแม้กระทั่งหลาย ๆ ไฟล์ ลักษณะนี้สามารถทำได้ด้วยการใช้คำสั่ง Append Queries แต่มีข้อสังเกตคือการจะรวมแถวข้อมูลได้นั้น ข้อมูลในแต่ละ Sheet หรือแต่ละไฟล์ จะต้องมีรูปแบบโครงสร้างแบบเดียวกัน เช่น มีจำนวนคอลัมน์, ชื่อคอลัมน์, ลำดับของคอลัมน์ ที่เหมือนกัน 8. การรวมข้อมูลในลักษณะของการอ้างอิงคอลัมน์ (คำสั่ง Merge Queries) จะเป็นการรวมข้อมูลจาก 2 ตาราง/Sheet/ไฟล์ โดยมีคอลัมน์อ้างอิงข้อมูลซึ่งกันและกัน เช่น ข้อมูลรายละเอียดการขายสินค้า กับข้อมูลสินค้า จะมีคอลัมน์อ้างอิงกันคือคอลัมน์รหัสสินค้า การรวมข้อมูลลักษณะนี้สามารถทำได้ด้วยการใช้คำสั่ง Merge Queries จากที่ได้กล่าวมา เป็นเพียงตัวอย่างการใช้งาน Power BI ในการเตรียมข้อมูลเบื้องต้นเท่านั้น ทั้งนี้ตัวโปรแกรมเองยังมีความสามารถในการเตรียมข้อมูลในลักษณะอื่นๆ อีก ซึ่งความสามารถในส่วนนี้มีความสำคัญและช่วยให้การสร้าง Visualization สะดวกมากขึ้น
24 April 2021
การสร้าง Shape Map ใน Power BI จาก COVID-19 data ที่ดึงมาจาก data.go.th
สถานการณ์โรคระบาด COVID-19 ในขณะนี้ยังคงต้องเฝ้าระวังกันอย่างต่อเนื่อง เมื่อทางศูนย์กลางการให้บริการข้อมูลเปิดภาครัฐ (Open Government Data) ภายใต้ชื่อ data.go.th ได้เปิดชุดข้อมูลรายงาน COVID-19 ประจำวัน ซึ่งเป็นรายงานผู้ป่วยยืนยันประจำวันจากกรมควบคุมโรค เราจะลองเอาข้อมูลชุดนี้มาสร้างเป็นแผนที่เพื่อแสดงจำนวนผู้ป่วยติดเชื้อในแต่ละจังหวัด โดยใช้เครื่องมือที่ชื่อว่า Shape Map ในโปรแกรม Power BI ก่อนอื่นเราต้องเตรียมอุปกรณ์หลัก 3 อย่างสำหรับการสร้าง Shape Map แบบที่เราต้องการ คือ 1. ข้อมูลผู้ป่วยติดเชื้อ COVID-19 จากศูนย์กลางการให้บริการข้อมูลเปิดภาครัฐ (Open Government Data) (https://www.data.go.th/dataset/covid-19-daily) ซึ่งให้ข้อมูลทั้งในรูปแบบของ Excel File และ API ในกรณีนี้เราจะดึงข้อมูลผ่าน API เพื่อให้การอัพเดตข้อมูลสะดวกขึ้น เริ่มจากทำการสมัครเพื่อเป็นผู้ใช้งาน API ก่อนที่ https://opend.data.go.th/register_api/ หลังจากสมัครเรียบร้อยเราจะได้ User Token สำหรับเรียกใช้งาน API แล้วไปดูคู่มือการใช้งาน Data.go.th API (https://data.go.th/pages/data-go-th-api) เพื่อดูว่าต้องใช้ Header อะไรบ้างในการเชื่อมต่อ 2. พิกัดแผนที่สำหรับวาด Shape Map เนื่องจาก Shape Map ใน Power BI ไม่มีพิกัดแผนที่ประเทศไทย แต่สามารถเพิ่มข้อมูลในส่วนนี้ได้ โดยเริ่มจากไปดาวน์โหลด Shapefiles จาก https://github.com/apisit/thailand.json/tree/master/TH_shape แล้วนำไฟล์ที่ดาวน์โหลดมาทั้งหมดไปแปลงเป็น TopoJSON เนื่องจาก Power BI รองรับเฉพาะไฟล์ TopoJSON ผ่านโปรแกรม Map Shaper (https://mapshaper.org/) 3. ข้อมูลรายชื่อจังหวัดภาษาอังกฤษ เนื่องจากข้อมูลผู้ป่วยที่ได้จาก data.go.th ไม่มีข้อมูลจังหวัดที่เป็นภาษาอังกฤษ ซึ่งจำเป็นต้องใช้ร่วมกับ Shapefiles TopoJSON แต่สามารถเพิ่มข้อมูลในส่วนนี้ได้ โดยเริ่มจากไปดาวน์โหลดไฟล์ ThepExcel-Thailand-Tambon.xlsx จาก https://github.com/ThepExcel/download/blob/master/ThepExcel-Thailand-Tambon.xlsx แล้วทำการ Clean Data ให้เหลือเฉพาะข้อมูลที่ต้องการ ดังนี้ * ต้องตรวจสอบการสะกดชื่อจังหวัดภาษาอังกฤษ ให้ตรงกับ Shapefiles TopoJSON เมื่ออุปกรณ์พร้อมแล้วก็ลงมือสร้าง Shape Map กันได้เลย 1. เปิดโปรแกรม Power BI Desktop ขึ้นมาแล้วไปที่เมนู Home > Get Data > Web จะปรากฎหน้าต่างให้ใส่ค่า URL parts ค่านี้ดูได้จาก data.go.th (https://www.data.go.th/dataset/covid-19-daily) เมื่อกดปุ่ม Data API จะปรากฏหน้าต่างให้เลือกวิธีการเรียกข้อมูล ให้เลือกเป็นวิธีการเรียกข้อมูล โดยการใช้คำสั่ง SQL แบบไม่มีเงื่อนไข (ไม่มี WHERE clause) https://opend.data.go.th/get-ckan/datastore_search_sql?sql=SELECT * from "93f74e67-6f76-4b25-8f5d-b485083100b6" คัดลอกคำสั่งมาใส่ในหน้าต่าง From Web ในส่วนของ URL parts และในส่วนของ HTTP request header parameters ให้ใส่ Header เป็น api-key ตามด้วยค่า User Token ที่ได้จากการสมัครเพื่อเป็นผู้ใช้งาน API เมื่อเชื่อมต่อข้อมูลสำเร็จจะปรากฎหน้าต่างของ Power Query Editor (1) คลิกเลือก Record หลังคอลัมน์ result (2) คลิกเลือก List หลังคอลัมน์ records (หากต้องการโครงสร้างข้อมูล คลิกเลือก List หลังคอลัมน์ fields) (3) คลิกเมนู Convert to Table (4) คลิกปุ่ม Expand คอลัมน์ (5) จะปรากฏชุดข้อมูล (Dataset) ที่ดึงมาจาก API (6) จัดการ Clean Data ข้อมูลจังหวัด เสร็จแล้วคลิกเมนู Close & Apply เพื่อโหลดข้อมูลเข้าสู่ Power BI 2. โหลดข้อมูลรายชื่อจังหวัดภาษาอังกฤษเข้ามาเพิ่ม โดยไปที่เมนู เมนู Home > Get Data > Excel เลือก Sheet ที่ต้องการแล้วกดโหลด 3. สร้างความสัมพันธ์ของข้อมูล คลิกเลือกมุมมอง Model > Manage Relationships > New แล้วเลือกชื่อจังหวัดภาษาไทยเป็นฟิลด์ที่แสดงความสัมพันธ์ของข้อมูล จะได้ความสัมพันธ์ของข้อมูลเป็นดังรูป 4. คลิกเลือกมุมมอง Report > คลิกเลือก Shape Map จาก Visualizations Pane > ลากฟิลด์ ProvinceEng มาใส่ในช่อง Location > ไปที่ Format Setting > ในช่อง Shape เลือก Add map แล้วคลิกเลือก Shapefiles TopoJSON ที่เตรียมไว้ (ถ้าการสะกดชื่อจังหวัดภาษาอังกฤษ ไม่ตรงกับ Shapefiles TopoJSON จะปรากฎแถบสีไม่ครบทุกจังหวัด) คลิกขวาที่ตาราง COVID-19 แล้วเลือก New measure เพื่อสร้างฟิลด์คำนวณจำนวนผู้ติดเชื้อ ใส่สูตรเป็น CountData = COUNTROWS('COVID-19') 5. ลาก measure ที่สร้างขึ้นมาใส่ในช่อง Color saturation > ไปที่ Format Setting > ในช่อง Data colors เลือกปรับแต่งเฉดสีตามที่ต้องการ 6. ปรับแต่งการแสดงผลตามต้องการ ก็จะได้ Shape Map รายงานจำนวนผู้ติดเชื้อ COVID-19
3 April 2020
PDPA Icon

We use cookies to optimize your browsing experience and improve our website’s performance. Learn more at our Privacy Policy and adjust your cookie settings at Settings

Privacy Preferences

You can choose your cookie settings by turning on/off each type of cookie as needed, except for necessary cookies.

Accept all
Manage Consent Preferences
  • Strictly Necessary Cookies
    Always Active

    This type of cookie is essential for providing services on the website of the Personal Data Protection Committee Office, allowing you to access various parts of the site. It also helps remember information you have previously provided through the website. Disabling this type of cookie will result in your inability to use key services of the Personal Data Protection Committee Office that require cookies to function.
    Cookies Details

  • Performance Cookies

    This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

  • Functional Cookies

    This type of cookie enables the Big Data Institute (Public Organization)’s website to remember the choices you have made and deliver enhanced features and content tailored to your usage. For example, it can remember your username or changes you have made to font sizes or other customizable settings on the page. Disabling these cookies may result in the website not functioning properly.

  • Targeting Cookies

    "This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

Save settings
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.