Patchara Wongsutthikoson

Patchara Wongsutthikoson

Associate, Research and Innovations Division (RIN) Big Data Institute (BDI)

บทความทั้งหมด

All Articles

Author Category Post Filter
Zero ETL: อนาคตของการทำ data integration
“Zero ETL จะเป็นอนาคตของการทำ data integration จริง ๆ หรือจะเป็นเพียง buzzword ที่ผ่านมาแล้วก็หายไปตามกาลเวลา” ในบทความนี้เราจะมารู้จักกันว่า Zero ETL คืออะไร มีข้อดี ข้อเสียอย่างไร และเหมาะสมกับการใช้งานของเราหรือไม่กันครับ
18 May 2023
ก้าวแรกจากงานวิจัยสู่โลกแห่งความจริงของ MuZero
ในปี 2016 Deepmind ได้แสดงความสามารถของ AI AlphaGo ที่สามารถเอาชนะแชมป์โลกในเกมกระดานอย่างหมากล้อม ซึ่งเป็นเกมที่โปรแกรมทั่วไปไม่สามารถเอาชนะมนุษย์ได้มาก่อน ต่อจากนั้นมา Deepmind ก็ได้พัฒนา AI มาเรื่อย ๆ โดยมี AlphaZero และ MuZero ที่ได้ถูกพัฒนาขึ้นมาตามลำดับ การพัฒนา AI ของ Deepmind นั้นมีจุดประสงค์ที่จะทำให้ AI สามารถเรียนรู้ได้หลากหลายมากยิ่งขึ้น และใช้ความรู้เริ่มต้นน้อยลง ตัวอย่างเช่น MuZero สามารถชนะมนุษย์ในเกมหมากล้อม หมากรุก โชกิ และเกมบน Atari โดยไม่จำเป็นที่จะต้องรู้กฎของเกมเลยด้วยซ้ำ แต่ผลงานทั้งหมดที่กล่าวมาเป็นเพียงแค่การเรียนรู้เกม Deepmind จึงได้ตั้งเป้าหมายถัดไปเป็นการแก้ไขปัญหาในชีวิตจริง โดยโจทย์แรกของ MuZero ในการก้าวเข้าสู่โลกแห่งความจริง คือการ Optimize วิดีโอบน YouTube การ Optimize วิดีโอมีความสำคัญเป็นอย่างมาก เนื่องจากปริมาณการใช้งานวิดีโอในปัจจุบันสูงขึ้นมาก ถ้าหากทำการบีบอัดวิดีโอ (Video compression) ได้ดี ก็จะสามารถลด traffic บนอินเตอร์เน็ตได้มหาศาล และเป็นโจทย์ที่เหมาะกับ MuZero ซึ่งใช้การเรียนรู้แบบเสริมกำลัง (Reinforcement Learning: RL) เพื่อพัฒนาวิธีการย่อขนาดวิดีโอให้ดีกว่าเดิม ผลการศึกษาพบว่า MuZero สามารถลด bitrate ของวิดีโอได้เฉลี่ย 4% หากใครสนใจผลการวิจัยฉบับเต็มสามารถดูได้ที่นี่ วิดีโอในแพลตฟอร์มออนไลน์ส่วนใหญ่จะใช้โปรแกรมที่เรียกว่า codec เพื่อบีบอัดหรือเข้ารหัสวิดีโอจากต้นทางของผู้อัปโหลด ส่งข้อมูลผ่านอินเตอร์เน็ต และแปลงข้อมูลกลับเพื่อแสดงวิดีโอที่ปลายทาง โปรแกรม codec จะต้องตัดสินใจเลือกตัวเลือกหลายอย่างในทุก ๆ เฟรมของวิดีโอ โดยวิธีการตัดสินใจของ codec ก็เป็นศาสตร์ที่ได้มีการพัฒนาโดยนักวิจัยและวิศวกรมานับสิบปี อย่างไรก็ตาม อัลกอริทึมแบบ RL มีความเหมาะสมกับการแก้ปัญหาที่เกี่ยวกับการตัดสินใจอย่างต่อเนื่องแบบนี้ ทาง Deepmind จึงเห็นว่าเป็นโจทย์ที่น่าลองนำ MuZero มาเรียนรู้ และศึกษาว่าจะนำ AI มาช่วยวงการวิดีโอได้อย่างไรบ้าง ในบทความนี้เราจะโฟกัสไปที่ VP9 codec (โดยใช้ opensource libvpx) ซึ่งเป็น codec ที่ใช้กันอย่างแพร่หลายบน YouTube ในการใช้ VP9 ผู้ใช้งานจะต้องคำนึงถึง bitrate (จำนวน 0 หรือ 1 ที่ใช้ในแต่ละเฟรมของวิดีโอ) ซึ่งค่า bitrate จะส่งผลต่อขนาดของวิดีโอเป็นอย่างมาก การทำ Optimization ใน VP9 จะทำบน Rate Control Module โดยใช้ตัวแปร Quantisation Parameter (QP) ในการปรับค่า bitrate (ค่า QP มาก จะทำให้ bitrate ต่ำ และค่า QP น้อยทำให้ bitrate สูง) สิ่งที่เราต้องการคือ maximize คุณภาพของวิดีโอ (วัดคุณภาพจากค่า Peak Signal-to-Noise Ratio: PSNR) โดยที่มีข้อจำกัดคือขนาดของวิดีโอต้องเล็กกว่าค่าที่ผู้ใช้งานกำหนด สิ่งที่โปรแกรมจะต้องทำก็คือปรับเฟรมที่มีการเคลื่อนไหวมาก ๆ ให้มี bitrate สูง (QP ต่ำ) และในทางตรงข้าม ปรับให้เฟรมที่มีการเคลื่อนไหวน้อย ๆ ให้มี bitrate ต่ำ (QP สูง) ปัญหาที่ Deepmind พบจากการลองให้ MuZero แก้โจทย์ Optimization ดังกล่าวโดยตรงคือ ผลที่ได้นั้นอ่อนไหวต่อค่า learning rate ของโมเดลเป็นอย่างมาก ทำให้ปรับจูนโมเดลได้ยาก นอกจากนั้น MuZero ไม่สามารถหาวิธีการที่ดีที่สุดออกมาวิธีเดียวได้ เนื่องจากวิดีโอมีความหลากหลายมาก ทาง Deepmind จึงเสนอวิธีการเรียนรู้ของโมเดลด้วยการแข่งขันกับตัวเอง โดยจะให้รางวัลโมเดลก็ต่อเมื่อโมเดลสร้างวิดีโอผลลัพธ์ที่คุณภาพดีกว่าผลงานของตัวเองในอดีต การกำหนดเป้าหมายแบบนี้เปลี่ยนการ maximize คุณภาพของวิดีโอ ให้กลายเป็นสัญญาณง่าย ๆ เพียงแค่ ชนะ หรือแพ้เท่านั้น ทำให้เทรนโมเดลได้ง่ายขึ้นมาก ประหยัด bitrate ไปได้ 4.7 % ประหยัด bitrate ไปได้ 4.1 % ประหยัด bitrate ไปได้ 3.5 % ผลที่ได้จากการให้ MuZero เรียนรู้วิธีการ Optimize วิดีโอด้วยการแข่งขันกับตัวเอง คือโมเดล MuZero Rate-Controller (MuZero-RC) ซึ่งสามารถลดขนาดของวิดีโอได้ 4% โดยเฉลี่ย โดยที่ไม่ลดคุณภาพของวิดีโอ และมีความสามารถในการ generalize โดยผ่านการทดสอบด้วยวิดีโอที่มีความหลากหลายทั้งในเชิงเนื้อหา และคุณภาพของวิดีโอ บนแพลตฟอร์ม YouTube ผลงานครั้งนี้ของ MuZero แสดงให้เห็นถึงศักยภาพของ AI ที่สามารถเรียนรู้วิธีการ Optimize วิดีโอได้โดยไม่ต้องใช้ข้อมูลนอกเหนือไปจากวิดีโอที่ใช้ให้ AI เรียน โดยมีผลลัพธ์ที่ไม่แย่ไปกว่าผลจากการวิจัยด้านการ Optimize codec นับสิบปี และนี่ก็คือก้าวแรกของ MuZero ในการแก้ไขปัญหาในชีวิตจริง และ Deepmind จะมุ่งหน้าสู่การสร้างอัลกอริทึมที่สามารถ แก้โจทย์ได้นับพันโจทย์ได้ด้วยอัลกอริทึมเดียว บทความโดย MuZero Applied Team เนื้อหาจากบทความ MuZero’s first step from research into the real world แปลและเรียบเรียงโดย พชร วงศ์สุทธิโกศล ตรวจทานและปรับปรุงโดย อิสระพงศ์ เอกสินชล
3 June 2022
Echo Chamber: เมื่อ AI เก่งขึ้น กลับยิ่งทำให้คุณอยู่ในกะลา
Social Media ทำให้เรามองเห็นปัญหาจาก Echo Chamber ในปัจจุบันมากขึ้น แล้วการใช้ AI จะช่วยลด หรือว่าจะกลายเป็นตัวเร่งปัญหานี้กันแน่
4 January 2022
Astronomy in 2021: ดูดาวด้วย Data Science
กล้องใหม่ ไซส์ Big เลยเอามาเล่าให้ชาว Big Data ฟัง หลังจากที่นักดาราศาสตร์รอคอยกันมานาน ในที่สุดกล้องดูดาว Vera C. Rubin Observatory หรือที่เรียกว่า LSST ก็สร้างเสร็จและมีกำหนดการทดสอบใช้ครั้งแรกปลายปีนี้ (ในขณะที่ผู้เขียนกำลังเขียนอยู่นั้น ก็ได้ทราบข่าวร้ายว่าได้มีการเลื่อนเปิดไปเป็นปี 2023 เนื่องจากสถานการณ์โควิด-19) แล้วกล้องดูดาวนี้พิเศษอย่างไร? กล้องดูดาวขนาดใหญ่จะมีส่วนประกอบสำคัญแบ่งได้เป็น 2 ส่วน ส่วนแรกคือส่วนรับแสงจากท้องฟ้า มีหน้าที่รวบรวมแสงอันริบหรี่ของดาวไกล ๆ ให้สว่างขึ้นจนมองเห็นได้บนภาพ ในส่วนนี้ LSST ใช้กระจกขนาดประมาณ 8 เมตรซึ่งถือว่าไม่ใหญ่มากเมื่อเทียบกับกล้องดูดาวชั้นนำแห่งอื่น แต่ความพิเศษของ LSST จะอยู่ในส่วนที่สอง ซึ่งก็คืออุปกรณ์รับภาพ เมื่อสร้างเสร็จ กล้อง LSST จะเป็นกล้องดิจิทัลที่มีขนาดใหญ่ที่สุดในโลก มีขนาดหน้ากล้องประมาณ 1.65 เมตร และมีอุปกรณ์รับภาพ 3.2-gigapixel CCD imaging camera หรือ 3,200 ล้านพิกเซล มากกว่ากล้องสมาร์ทโฟนที่เราใช้กันเป็นร้อยเท่า คาดการณ์ว่าจะเก็บข้อมูลแบบ raw ประมาณ 20 Terabyte ทุก ๆ คืน เก็บภาพแค่ชั่วโมงเดียวก็เต็มคอมพิวเตอร์ผู้เขียนแล้ว ? เรียกว่าเป็นกล้องดูดาวรุ่นใหม่ที่ให้ข้อมูลจำนวนมหาศาลแบบไม่เคยมีมาก่อนกับนักดาราศาสตร์ หากท่านที่คิดว่าข้อมูลทางดาราศาสตร์มันน่าจะใหญ่มากอยู่แล้วหรือเปล่า ผมขอยกตัวอย่างข้อมูลจากกล้องดูดาวที่มีชื่อเสียงมาเปรียบเทียบนะครับ พูดง่าย ๆ ก็คือ กล้อง LSST มีอัตราการเก็บข้อมูลที่สูงกว่ากล้องดูดาวที่มีอยู่ก่อน ถึง 200 – 8000 เท่าเลยทีเดียว! Why big camera? แล้วทำไมเราถึงต้องใช้กล้องขนาดใหญ่ขนาดนี้? ในส่วนแรก (ส่วนรับแสงจากท้องฟ้า) ขนาดหน้ากล้องดูดาวจะเป็นตัวกำหนดความสามารถในการรวมแสง และการแยกภาพของวัตถุสองชิ้นออกจากกัน ยิ่งกล้องมีขนาดใหญ่ ก็จะสามารถถ่ายภาพได้สว่างขึ้น และแยกภาพของวัตถุที่อยู่ใกล้กันได้มากขึ้น เนื่องจากวัตถุยิ่งอยู่ไกล ก็จะปรากฎบนภาพจางลง และมีรายละเอียดที่ใกล้กันมากขึ้น นั่นแปลว่ากล้องขนาดใหญ่จะทำให้เราศึกษาวัตถุได้ไกลมากขึ้น ในส่วนที่สอง ขนาดของอุปกรณ์รับภาพ ยิ่งกล้องมีขนาดใหญ่ ก็จะทำให้สามารถถ่ายภาพได้กว้างขึ้น ซึ่งเมื่อเราได้ภาพกว้างขึ้นแต่ยังอยากให้มีรายละเอียดเท่าเดิม อุปกรณ์รับภาพก็ต้องมีจำนวนพิกเซลเยอะขึ้นตามไปด้วย ความสำคัญในส่วนนี้คือกล้องขนาดใหญ่จะสามารถถ่ายภาพครอบคลุมท้องฟ้าได้มากขึ้นในเวลาเท่าเดิม สมมติว่าเดิมเราต้องใช้เวลา 2 คืนเพื่อถ่ายภาพในบริเวณที่สนใจ ถ้าเราลดเวลาถ่ายภาพเหลือ 1 คืนได้ เราก็จะสามารถถ่ายภาพได้ถี่ขึ้น ซึ่งจะทำให้เราศึกษาการเปลี่ยนแปลงของท้องฟ้าได้ดีขึ้น Data Science มีส่วนอย่างไรในการดูดาว การจัดการข้อมูลมหาศาลขนาดนี้ ต้องมีการออกแบบ data pipeline และ architecture ที่ดีมาก นอกจากนี้แล้ว ยังมีปัญหาที่สำคัญอีกประการหนึ่งสำหรับนักดาราศาสตร์ คือ ข้อมูลที่ถูกสร้างจำนวนมหาศาลขนาดนี้ การใช้ “คน” มาเลือก “รูป” ที่น่าสนใจก่อนที่จะนำไปวิเคราะห์เชิงดาราศาสตร์ จะเป็นกระบวนการที่ใช้เวลามากตามไปด้วย จินตนาการเหมือนให้นักดาราศาสตร์มานั่งดูรูปด้วยตาทีละรูป นี่ยังไม่ได้เข้าสู่กระบวนการนำรูปไปวิเคราะห์เลย ก็อาจจะใช้เวลาเป็นเดือนหรือเป็นปีแล้ว การจะนำข้อมูล raw ขนาดมหาศาลนี้ไปส่งให้ถึงมือนักดาราศาสตร์ที่สนใจได้ ระบบจำเป็นที่จะต้องมีการวิเคราะห์ข้อมูลโดยอัตโนมัติ เพื่อที่จะเลือกภาพที่น่าสนใจให้คนไปศึกษาต่อ เป็นที่มาของการใช้ Data Science ในการดูดาว ในบทความนี้ผู้เขียนจะกล่าวถึงกระบวนการทางดาราศาสตร์ที่ได้นำเทคนิคทาง Data Science มาประยุกต์ใช้ สองกระบวนการครับ คือ การเลือกรูปที่น่าสนใจจากข้อมูลมหาศาลมาวิเคราะห์ และการจำแนกเหตุการณ์ทางดาราศาสตร์ ครับ ข้อมูลมหาศาล ทำอย่างไรให้ได้สิ่งที่นักดาราศาสตร์สนใจ หลายคนอาจจะคิดไว้ในใจแล้วว่านี่เป็นโจทย์ Anomaly detection แต่สิ่งที่ทางนักดาราศาสตร์ของ LSST ทำนั้นง่ายกว่านั้นมาก เค้าแค่เลือกใช้เฉพาะจุดที่มีการเปลี่ยนแปลงของแสงเกินค่า threshold ที่ตั้งไว้ครับ ก่อนอื่นก็ต้องอธิบายก่อนว่า LSST เป็นกล้องประเภท survey ซึ่งจะทำการถ่ายภาพท้องฟ้าทุกคืนเพื่อหาสิ่งที่เปลี่ยนแปลงไปในแต่ละคืน และแจ้งเตือนแบบ real-time เพื่อให้นักดาราศาสตร์สามารถใช้กล้องแบบเฉพาะทาง เช่น กล้อง X-Ray ศึกษาไปพร้อมกันกับข้อมูลการเปลี่ยนแปลงของแสงที่ได้จากกล้อง LSST ดังนั้นสิ่งที่นักดาราศาสตร์อยากได้ไม่ใช่ภาพสวย ๆ แบบนี้ แต่จะเป็นข้อมูล time-series ของการเปลี่ยนแปลงของความสว่างของวัตถุ หรือเหตุการณ์ (เรียกว่า light curve) แบบนี้ ข้อมูล light curve จากกราฟด้านบน จะเป็นข้อมูลของวัตถุเดียว หรือเหตุการณ์ในตำแหน่งเดียว ซึ่งก็คือข้อมูลเพียงพิกเซลเดียวบนกล้อง 3200 ล้านพิกเซล ที่ถูกเก็บมาตามช่วงเวลาที่ตั้งไว้ (เช่น หนึ่งวัน) แต่ก็คงไม่มีใครต้องการดูกราฟแบบนี้ 3200 ล้านกราฟด้วยตนเอง ดังนั้นเราจึงจำเป็นต้องให้คอมพิวเตอร์ทำการเลือกสิ่งที่น่าสนใจให้เราโดยอัตโนมัติ สิ่งที่ต้องทำคือหาผลต่างของความสว่างในแต่ละพิกเซล เทียบกับภาพอ้างอิงของท้องฟ้าตำแหน่งเดียวกันในเวลาก่อนหน้า จากนั้นก็ทำการตั้ง threshold เพื่อเลือกพิกเซลที่มีการเปลี่ยนแปลงความสว่างเกินค่าที่กำหนด ในขั้นตอนนี้ทางนักวิจัยก็จะต้องศึกษา และตัดสินใจว่า threshold ควรเป็นเท่าไหร่ ซึ่งก็ต้องประเมินจาก noise ของภาพ ประกอบกับ false positive และ true negative rate ที่ต้องการ สังเกตได้ว่าการทำ threshold ของแต่ละพิกเซล ไม่ได้นำข้อมูลโดยรอบมาคำนึงถึง จึงทำให้ไม่สามารถค้นพบและติดตามการเคลื่อนที่ของวัตถุบนภาพเช่น ดาวหาง หรือดาวเคราะห์ในระบบสุริยะของเราได้ แต่กล้องตัวนี้จะเน้นไปที่การค้นหาวัตถุหรือเหตุการณ์ที่เกิดขึ้นไกล ๆ ซึ่งภาพจากวัตถุไกล ๆ จะปรากฏเหมือนแทบไม่ขยับเลย การเลือกตำแหน่งที่สนใจก็จะมีขั้นตอนเพียงเท่านี้ ซึ่งมันดูง่ายมาก ๆ จนเหมือนง่ายเกินไปหรือเปล่า? ถ้าเราต้องการความแม่นยำในการเลือกจุดสนใจ เรามีวิธีทางสถิติหรือ Data Science หลายวิธีที่ดีกว่าการทำ threshold แน่นอน แต่เหตุผลหลักของการทำ threshold คือเราไม่ได้ต้องการความแม่นยำมากขนาดนั้น เราทำขั้นตอนนี้เพื่อลดปริมาณข้อมูลที่ต้องใช้ประมวลผลในขั้นตอนถัดไป ดังนั้นวิธีที่ทำได้ง่าย ไว และไม่เปลืองทรัพยากรในการประมวลผล จึงเป็นวิธีที่เหมาะสมที่สุดครับ จำแนกเหตุการณ์ทางดาราศาสตร์ด้วย Classification หลังจากที่เราได้ตำแหน่งภาพที่มีการเปลี่ยนแปลงของความสว่าง และข้อมูล light curve ขั้นตอนถัดไปคือการใช้ Data Science ช่วยจำแนกข้อมูลที่ได้เป็นประเภทของเหตุการณ์ที่น่าสนใจทางดาราศาสตร์ด้วย classification ตัวอย่างเหตุการณ์ที่เกิดขึ้นในดาราศาสตร์ เช่น การระเบิดของดาวขนาดใหญ่เมื่อหมดอายุขัย (Supernova) ดาวแปรแสง (Cepheids) หรือดาวคู่ที่โคจรรอบกันและบังแสงกันเอง (Eclipsing Binaries) เป็นต้น โดยเหตุการณ์เหล่านี้ก็จะมีลักษณะของ light curve ที่แตกต่างกัน เพราะฉะนั้น ข้อมูล light curve ที่แสดงการเปลี่ยนแปลงที่แสงสว่างตามช่วงเวลาที่ผ่านไป ประกบกับ label ว่า light curve ในลักษณะนี้จัดว่าเป็นปรากฎการณ์ทางดาราศาสตร์แบบใด (ซึ่ง LSST ก็มีการศึกษาไว้แล้วมากมาย) ก็ได้ถูกนำมาใช้เป็น training data เพื่อทำโจทย์นี้นั่นเองครับ ทาง LSST จึงได้จัดการแข่งขัน The Photometric LSST Astronomical...
14 June 2021
Health Link: แพลตฟอร์มเชื่อมโยงข้อมูลสุขภาพของไทย
คุณเคยไหม ที่เมื่อเข้าโรงพยาบาลแห่งใหม่แล้วต้องใช้ข้อมูลประวัติการรักษาจากโรงพยาบาลเก่า ที่เมื่อพบแพทย์แล้วต้องตอบคำถามว่าตอนนี้ใช้ยาอะไรอยู่บ้างแต่เราจำไม่ได้ หลายคนอาจจะสงสัยว่าในเมื่อโรงพยาบาลหลายแห่งก็เก็บข้อมูลไว้ในระบบคอมพิวเตอร์อยู่แล้ว ทำไมเราต้องเดินไปขอประวัติของตนเอง แล้วต้องให้โรงพยาบาลเขียนข้อมูลลงบนแผ่นซีดีเพื่อนำไปส่งที่อื่น ทำไมถึงไม่ส่งข้อมูลกันผ่านอินเตอร์เน็ต เราจะได้สะดวกสบายมากขึ้น และแพทย์จะได้มีข้อมูลเพื่อช่วยในการวินิจฉัยให้เราได้ดีขึ้น? Health Link จึงได้เกิดขึ้นมาเพื่อตอบปัญหานี้ Health Link คืออะไร? Health Link เป็นแพลตฟอร์มสำหรับเชื่อมโยงข้อมูลสุขภาพ เพื่อให้แพทย์สามารถเข้าดูข้อมูลสุขภาพของคนไข้จากโรงพยาบาลอื่นได้ โดยคนไข้จะสามารถกำหนดสิทธิการเข้าถึงข้อมูลของตนเองได้ จึงไม่ได้แปลว่าแพทย์ทุกคนจะเข้ามาดูข้อมูลสุขภาพของเราเมื่อไหร่ก็ได้ นอกจากนี้ Health Link จะช่วยแพทย์ในห้องฉุกเฉิน โดยจะให้สิทธิแพทย์ในห้องฉุกเฉินสืบค้นข้อมูลคนไข้ที่หมดสติ ซึ่งข้อมูลที่ได้มานั้นอาจจะช่วยรักษาชีวิตของคนไข้ในห้องฉุกเฉินได้ จุดเริ่มต้นของ Health Link ระบบเชื่อมโยงข้อมูลสุขภาพ เป็นแนวคิดที่มีมานานแล้ว และมีการนำไปใช้จริงแล้วในต่างประเทศ ซึ่งถูกเรียกรวม ๆว่า Health Information Exchange (HIE) โดยมักจะพบในกลุ่มหรือเครือโรงพยาบาล ที่ใช้ระบบสารสนเทศ (Hospital Information System หรือ HIS) แบบเดียวกัน การที่จะเกิดระบบ HIE ในระดับประเทศนั้นยากกว่าการทำ HIE เฉพาะกลุ่มมากนัก เนื่องจากโรงพยาบาลแต่ละแห่งใช้ระบบ HIS ต่างกัน และยังใช้มาตรฐานข้อมูลที่ต่างกันด้วย ดังนั้นการทำ HIE ในระดับประเทศจึงจำเป็นต้องมีการตกลงมาตรฐานที่ทุกคนยอมรับ และต้องลงมือแปลงข้อมูลของตนเองให้เข้ากับมาตรฐานก่อนที่จะส่งข้อมูลเข้ามา ซึ่งเป็นขั้นตอนที่ต้องมีการลงทุนและต้องการการผลักดันจากหลายฝ่ายเพื่อให้เกิดขึ้นได้ กระทรวงดิจิทัลเพื่อเศรษฐกิจและสังคม จึงได้ร่วมมือกับกระทรวงสาธารณสุข ผลักดันให้เกิดระบบ HIE ในระดับประเทศ โดยการสร้างแพลตฟอร์ม Health Link ขึ้นมา และได้กำหนดมาตรฐานกลางร่วมกับโรงพยาบาลในภาคี และมีการสนับสนุนโรงพยาบาลในด้านเครื่องมือและกระบวนการที่จะทำให้การแลกเปลี่ยนข้อมูลเกิดขึ้นได้ตามมาตรฐานดังกล่าว ประโยชน์ของ Health Link การที่แพทย์สามารถดูข้อมูลประวัติการรักษาจากต่างโรงพยาบาลได้ จะเกิดประโยชน์กับทั้งคนไข้ และกับแพทย์เองด้วย เข้าถึงบริการ Health Link ง่าย ๆ ผ่านแอปพลิเคชัน Health Link จะเปิดให้บริการกับคนไทยทุกคนผ่านแอปพลิเคชันบนมือถือ คนไข้ที่ใช้ Health Link จะสามารถกำหนดได้ว่าจะอนุญาตให้โรงพยาบาลใดส่งข้อมูลตนเองเข้าสู่ระบบได้บ้าง หากคุณมีข้อมูลจากโรงพยาบาลแห่งหนึ่งที่ไม่อยากเปิดเผย ก็สามารถกำหนดให้โรงพยาบาลนั้นไม่ส่งข้อมูลได้ โดยที่ยังได้ใช้ประโยชน์การเชื่อมโยงข้อมูลจากโรงพยาบาลที่เหลือ ในบางโรงพยาบาลที่กำหนดให้ใช้การขอความยินยอมแบบรายครั้ง เมื่อแพทย์ขอดูข้อมูลจากโรงพยาบาลเหล่านี้ จะมีการแจ้งเตือนมาที่แอปพลิเคชัน Health Link เพื่อให้คนไข้กดยินยอม (หรือปฏิเสธ) ให้แพทย์ดูข้อมูลในส่วนนั้นได้ นอกจากนี้ คนไข้สามารถยกเลิกการอนุญาตให้บางโรงพยาบาลส่งข้อมูล หรือถอนความยินยอมและออกจากโครงการ Health Link ได้ทุกเมื่อ มาตรฐานข้อมูลระดับสากล ระบบ Health Link ได้ใช้มาตรฐาน Fast Healthcare Interoperability Resources (FHIR) จากองค์กร Health Level Seven (HL7) ซึ่งเป็นมาตรฐานการแลกเปลี่ยนข้อมูลสุขภาพที่มีผู้ใช้งานทั่วโลก ได้รับการอัพเดทอยู่อย่างสม่ำเสมอ และมีหน่วยงานรัฐบาลหลายประเทศนำไปใช้ เช่น Centers for Medicare & Medicaid Services (CMS) ของสหรัฐอเมริกา สำหรับผู้พัฒนา FHIR นั้นง่ายต่อการนำไปใช้งานมาก เนื่องจาก FHIR ใช้ HTTP-based RESTful protocol ซึ่งนักพัฒนาเว็บไซต์ก็เข้าใจกันดีว่าเป็นมาตรฐานการพัฒนาเว็ปไซต์ที่ใช้กันทั่วไปในปัจจุบัน ใช้ได้กับอุปกรณ์หลากหลายชนิด และมีตัวเลือกของการแสดงข้อมูลหลายชนิด ได้แก่ JSON, XML, และ RDF ง่ายต่อการนำไปใช้ร่วมกับแอปพลิเคชันที่ผู้พัฒนาอื่น ๆ พัฒนาขึ้นมาเสริม ข้อมูลสุขภาพเป็นข้อมูลที่ละเอียดอ่อน Health Link ปกป้องข้อมูลของคุณอย่างไรบ้าง? สถานะของ Health Link ในปัจจุบัน ขณะนี้ระบบ Health Link ได้เปิดให้บริการอย่างเป็นทางการแล้ว โดยในระยะแรกมีโรงพยาบาลเข้าร่วมโครงการรวมทั้งสิ้น 100 แห่ง และจะมีโรงพยาบาลเข้าร่วมโครงการเพิ่มขึ้นเรื่อย ๆ โดยมีเป้าหมายที่ 200 โรงพยาบาลในปี 2023 หากโรงพยาบาลที่ท่านมีประวัติการรักษาอยู่ ยังไม่ได้เข้าร่วมโครงการ Health Link ในปีหน้า ก็ไม่ต้องผิดหวังไป เพราะ Health Link ยังคงเปิดรับโรงพยาบาลเข้าร่วมโครงการเพิ่มขึ้นเรื่อย ๆ และเราจะมุ่งหน้าเชื่อมข้อมูลประวัติการรักษาจนเกิดการเชื่อมโยงข้อมูลสุขภาพได้ทั้งประเทศในที่สุด What’s Next? ปัจจุบันแพทย์จะเห็นข้อมูลเรียงตามวันที่การเข้ารับการรักษา และสามารถเลือกแสดงตามประเภทข้อมูล หรือเลือกแสดงข้อมูลเฉพาะบางโรงพยาบาลได้ ทางผู้ออกแบบระบบได้ให้ความสำคัญกับเวลาของแพทย์เป็นอย่างมาก และต้องการที่จะสร้างระบบที่ทำให้แพทย์สามารถเห็นข้อมูลที่สำคัญ จำเป็นสำหรับการรักษา ในเวลาที่สั้นที่สุด จึงมีแผนที่จะพัฒนาหน้าจอแสดงผลให้ดีขึ้น ซึ่งในอนาคตอาจจะมีการนำ AI มาช่วยในการเลือกข้อมูลที่จะนำไปแสดงผลในหน้าแรกที่แพทย์เห็น เนื่องจากข้อมูลสุขภาพที่แลกเปลี่ยนในโครงการ Health Link ยังเป็นข้อมูลสำหรับแพทย์ ซึ่งอาจจะต้องผ่านกระบวนการแปลความหมายก่อนที่คนไข้ทั่วไปจะเข้าใจได้ถูกต้อง Health Link จึงยังไม่พร้อมที่จะแสดงข้อมูลสุขภาพให้คนไข้เข้าถึงได้เอง แต่ในอนาคต Health Link อาจขยายผลไปสู่การเผยแพร่ข้อมูลสุขภาพสำหรับให้ประชาชนทั่วไปเข้าถึงได้ เพื่อที่จะให้ข้อมูลสุขภาพของประชาชนเป็นของประชาชนอย่างแท้จริง เนื้อหาโดย พชร วงศ์สุทธิโกศล ตรวจทานและปรับปรุงโดย ปพจน์ ธรรมเจริญพร วีดีโอที่เกี่ยวข้อง
15 February 2021
เปรียบเทียบสถานการณ์โควิด-19 กับโรคระบาดที่เคยเกิดขึ้นในอดีต
ศึกษาข้อมูลโรคระบาดอื่น ๆ และเปรียบเทียบกับโรคโคโรนาไวรัส โดยประเมินตามความรุนแรงของโรคที่เกิดขึ้น รวมถึงหาความสัมพันธ์ของระยะเวลาในการผลิตวัคซีนของโรคระบาดในอดีต เพื่อประเมินระยะเวลาในการผลิตวัคซีนของโรคโคโรนาไวรัส
3 September 2020
PDPA Icon

We use cookies to optimize your browsing experience and improve our website’s performance. Learn more at our Privacy Policy and adjust your cookie settings at Settings

Privacy Preferences

You can choose your cookie settings by turning on/off each type of cookie as needed, except for necessary cookies.

Accept all
Manage Consent Preferences
  • Strictly Necessary Cookies
    Always Active

    This type of cookie is essential for providing services on the website of the Personal Data Protection Committee Office, allowing you to access various parts of the site. It also helps remember information you have previously provided through the website. Disabling this type of cookie will result in your inability to use key services of the Personal Data Protection Committee Office that require cookies to function.
    Cookies Details

  • Performance Cookies

    This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

  • Functional Cookies

    This type of cookie enables the Big Data Institute (Public Organization)’s website to remember the choices you have made and deliver enhanced features and content tailored to your usage. For example, it can remember your username or changes you have made to font sizes or other customizable settings on the page. Disabling these cookies may result in the website not functioning properly.

  • Targeting Cookies

    "This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

Save settings
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.