Nontawit Cheewaruangroj, PhD

Nontawit Cheewaruangroj, PhD

test

บทความทั้งหมด

All Articles

Author Category Post Filter
รู้จักกับ RFM Analysis เทคนิคการแบ่งกลุ่มลูกค้าเพื่อวางกลยุทธ์การตลาด พร้อมวิธีทำใน 3 ขั้นตอน
มาทำความรู้จักกับการวิเคราะห์ข้อมูลลูกค้าเพื่อจำแนกกลุ่มลูกค้า โดยวิธีการไม่ซับซ้อนที่เรียกกันว่า RFM Analysis
5 September 2023
วัฒนธรรมข้อมูล กับวิกฤติโควิด-19
การเปลี่ยนแปลงข้อมูลขององค์กร หลังโควิด ในวิกฤติยังมีโอกาส นับตั้งแต่ช่วงแรกของการแพร่ระบาดของโควิด-19 ในปี 2563 หลาย ๆ องค์กรต้องปรับเปลี่ยนรูปแบบการทำงานเข้าสู่การทำงานรูปแบบ Work From Home อย่างเร่งด่วน รวมถึงยังได้รับผลกระทบกับธุรกิจในหลาย ๆ ด้าน ยิ่งสถานการณ์คาดเดาไม่ได้เท่าไร ยิ่งความเปลี่ยนแปลงไม่แน่นอนมากแค่ไหน ก็ยิ่งเป็นตัวผลักดันให้เหล่าผู้บริหารจำเป็นต้องคอยสอดส่องดูแลธุรกิจของตัวเองอย่างใกล้ชิดมากขึ้น จากเดิมที่การติดตามผลการบริหารที่อาจจะเป็นรายเดือน รายสัปดาห์ ก็แทบจะต้องลงมาพิจารณาลึกลงในระดับของรายวันแทบทั้งนั้น ยังไม่นับสถานการณ์การแพร่ระบาด ที่จำเป็นจะต้องติดตามทั้งในระดับของประเทศ และลงมาในระดับขององค์กรตนเองด้วย ยิ่งสำหรับธุรกิจผลิตและกระจายสินค้านั้น ถือว่าเป็นเรื่องสำคัญมากเพราะนั่นอาจหมายถึงการที่จะต้องหยุดการดำเนินธุรกิจไปชั่วระยะหนึ่งเลยทีเดียว ซึ่งแน่นอนว่าความเสียหายนั้นไม่สามารถประเมินค่าได้ และอาจรุนแรงถึงขั้นทำให้ต้องเลิกกิจการได้เลยทีเดียว เมื่อโลกไม่ยอมให้เราทำงานแบบเดิม ๆ แม้สถานการณ์โควิด-19 จะเป็นเรื่องที่บีบบังคับธุรกิจในหลาย ๆ ด้าน แต่ความพยายามแรก ๆ ในการฟันฝ่าปัญหาต่าง ๆ ย่อมหนีไม่พ้นการใช้วิธีการแก้ปัญหาแบบเดิม ๆ ซึ่งหลายธุรกิจคงทราบดี ว่าความพยายามเหล่านั้นล้วนติดขัดและเกิดปัญหาเป็นลูกโซ่มากขึ้นท่ามกลางวิกฤตินี้ไม่ว่าจะเป็น เพียงแค่พิจารณาจาก 3 ตัวอย่างข้างต้น ก็จะเห็นว่าสถานการณ์โควิด-19 นั้น นอกจากจะกระทบกับธุรกิจทางตรงแล้ว ยังส่งผลทางอ้อมอีกมากมายที่ทำให้ประสิทธิภาพในการทำงานลดลง ซึ่งก็ยิ่งเพิ่มความเสี่ยงและสร้างผลเสียให้กับองค์กรมากขึ้นเป็นทวีคูณ จนแทบจะไม่สามารถฟื้นตัวได้เลยหากยังคงพยายามทำงานในรูปแบบเดิมต่อไป สิ่งที่ตอบโจทย์ได้ดีกว่าอย่างไม่น่าเชื่อ กระแส Digital Transformation และ Data Visualization ต่างเป็นที่พูดถึงในวงกว้างตั้งแต่ช่วงก่อนการระบาดของโควิด-19 แต่เมื่อเข้าสู่ช่วงการระบาดนั้น กลับเป็นช่วงที่ทำให้องค์กรได้เห็นศักยภาพ และประโยชน์ของสิ่งเหล่านี้อย่างแท้จริง เพราะด้วยปัญหาข้างต้นที่กล่าวมานั้น สามารถนำแนวคิดทั้ง 2 เข้ามาปรับใช้เพื่อแก้ปัญหาได้แทบทั้งหมด ไม่ว่าจะเป็นการจัดทำระบบข้อมูลเพื่อติดตามสถานการณ์ธุรกิจทั้งยอดขาย คลัง หรือการผลิต ที่มีการอัพเดทข้อมูลอัตโนมัติ ทำให้ลดขั้นตอนในการจัดทำรายงานต่าง ๆ และยังทำให้สามารถทราบสถานการณ์ที่เปลี่ยนแปลงไปได้อย่างทันท่วงทีอีกด้วย นอกจากเรื่องธุรกิจแล้ว เรายังสามารถประยุกต์เพื่อใช้ติดตามสถานะของพนักงานแต่ละคนได้แบบรายวัน รวมถึงยังจัดสรรรูปแบบรายงานที่เหมาะสมสำหรับผู้บริหาร/หัวหน้า อย่างอัตโนมัติโดยไม่ต้องใช้เวลาในการจัดทำรายงานเพิ่มเติมเลย ทั้งหมดนี้ดูแล้วอาจจะเหมือนเป็นการเปลี่ยนแปลงระบบครั้งใหญ่ ที่จำเป็นจะต้องใช้งบประมาณและกำลังพลปริมาณมาก แต่จริง ๆ แล้ว เราใช้เวลาเพียงแค่ 1-2 สัปดาห์ โดยใช้พนักงานเพียง 3-4 คนเท่านั้นในการจัดทำ เคล็ดลับความสำเร็จนั้นหาใช่การวางแผนระยะยาวที่แม่นยำ หรือการใช้เทคโนโลยีล้ำสมัย แต่เป็นการปรับเปลี่ยนที่รวดเร็วเพื่อให้แก้ปัญหาที่แท้จริงให้ได้นั่นเอง ความคล่องตัวคือหัวใจสำคัญ องค์ประกอบสำคัญของการจัดการข้อมูลนั้น ให้แบ่งออกเป็น 3 เรื่องหลักคือ จะเห็นว่า ในการพิจารณาทั้ง 3 ด้านนั้น เราจะต้องมองไปที่ ความคล่องตัวในการใช้งาน ให้มากที่สุด เนื่องจากในช่วงวิกฤตินั้น เราไม่สามารถวางแผนหรือจัดเตรียมอะไรได้มากนัก ดังนั้นควรหยิบเครื่องมือที่มีอยู่แล้ว มาใช้งานจะทำให้ได้ผลลัพธ์ที่รวดเร็วกว่า นอกจากเรื่องระบบแล้ว บุคลากรก็เป็นเรื่องสำคัญ ซึ่งความคล่องตัวนั้น ในมุมของบุคลากรคือความสามารถในการเข้าถึงข้อมูล และทำความเข้าใจข้อมูลนั้น ๆ ได้อย่างรวดเร็ว เนื่องจากเราอาจมีพนักงานที่มีความสามารถด้านข้อมูล ที่ไม่ได้ดูแลข้อมูลที่เราต้องการนำมาใช้งาน ดังนั้นการประสานงานและการจัดการการเข้าถึงข้อมูลได้รวดเร็วนั้นถือเป็นกลไกสำคัญที่ทำให้เกิดผลสำเร็จได้เร็ว ซึ่งการทำงานในรูปแบบของ Special Taskforce หรือ ทีมเฉพาะกิจ จะมีความเหมาะสมมากที่สุด เพื่อให้การอนุมัติการเข้าถึงต่าง ๆ ทำได้รวดเร็ว รวมถึงยังคงควบคุมความเสี่ยงไว้ในจุดที่ยอมรับได้ด้วย พัฒนาต่อเนื่องเพื่อเปิดมุมมองใหม่ ในช่วงแรกของการเปลี่ยนการทำงาน เราย่อมไม่สามารถจัดทำทุกรายงานออกมาพร้อม ๆ กันได้ ดังนั้นการคัดเลือกรายงาน/ข้อมูล ที่มีความต้องการสูงและมีผู้ใช้งานจำนวณมาก จึงเป็นเงื่อนไขสำคัญในการคัดเลือกโครงการเริ่มแรก ซึ่งแม้จะได้รับการตอบสนองอย่างดีก็ตาม แต่สิ่งที่จะต้องรับฟังอยู่เสมอคือข้อเสนอแนะต่าง ๆ รวมถึงการเพิ่มช่องทางการเข้าถึง Dashboard นั้น ๆ ให้ได้ง่ายที่สุด เช่นการส่ง Dashboard ผ่านช่องทางอื่น ๆ ที่ผู้ใช้งานคุ้นเคย ไม่ว่าจะเป็นอีเมล์ หรือผ่านระบบ Chat Notification (Line Notify) ซึ่งจะทำให้ผู้ใช้งานเห็นถึงศักยภาพของการนำเสนอข้อมูลในรูปแบบใหม่ และช่วยจุดประกายให้มีการนำไปใช้ในข้อมูลชุดอื่น ๆ และการใช้งานอื่น ๆ มากขึ้นอย่างรวดเร็ว นอกจากจะพยายามสร้างสรรค์รูปแบบการนำเสนอใหม่ ๆ แล้ว สิ่งหนึ่งที่ต้องรีบสังเกตและตอบสนองคือ มุมมองที่แตกต่างออกไปบน Dashboard เดิม เพราะสิ่งเหล่านี้คือสัญญาณบ่งบอกถึงการวิเคราะห์ข้อมูลในแง่มุมที่หลากหลายขึ้น และเกิดการตั้งคำถามในมุมมองที่แตกต่างออกไปในข้อมูลชุดเดิม ซึ่งถือว่าเป็นรากฐานที่สำคัญของการสร้าง Analytic Culture ในองค์กรอย่างมาก และจะเป็นกลไกผลักดันสำคัญให้เกิดการขยายผลไปยังวงกว้าง ขยายผลสู่วงกว้าง หลังจากโครงการแรกเริ่มถูกนำไปใช้เพื่อกระตุ้นและเปิดมุมมองใหม่ๆเกี่ยวกับการทำงาน สิ่งที่จะเกิดขึ้นเป็นอย่างแรกคือ Request ให้ขยายผลไปยังข้อมูลหรืองานอื่นๆ ซึ่งการขยายในลักษณะนี้จะถูกจำกัดด้วยกำลังพลและทักษะของพนักงานที่มี ดังนั้นสิ่งที่จำเป็นในการขยายผลนั้น ไม่ใช่งบประมาณมหาศาล หรือการเปิดรับพนักงานด้านข้อมูลจำนวนมาก แต่เป็นการฝึกทักษะของบุคลากรภายใน ให้สามารถทำสิ่งเหล่านี้ได้ด้วยตนเอง และสร้างให้เกิดสังคมการเรียนรู้ด้านข้อมูลให้เกิดขึ้น เพื่อให้เกิดการถ่ายทอดความรู้กันเองโดยธรรมชาติระหว่างพนักงาน โดยเราสามารถแบ่งองค์ประกอบที่จำเป็นในการขยายผลให้เกิดผลสำเร็จได้เป็น 3 ส่วนดังนี้ จากทั้ง 3 องค์ประกอบนี้ จะเห็นว่าเป็นสิ่งที่สามารถทำได้โดยใช้งบประมาณไม่มาก และในอีกแง่มุมหนึ่งสถานการณ์โควิด-19 ก็กลับจะเป็นสถานการณ์ที่เอื้อให้เกิดการเปลี่ยนแปลงด้านข้อมูลขององค์กรได้เป็นอย่างดี หากเพียงแต่เราสามารถมองเห็นโอกาสที่แอบซ่อนอยู่ได้นั้น ก็จะสามารถพลิกมาเป็นเครื่องมือให้เกิดการเปลี่ยนแปลงในองค์กร ที่ทำให้เกิดการพัฒนาอย่างก้าวกระโดดและยั่งยืน ซึ่งจะเป็นเกราะป้องกันอย่างดี สำหรับการเปลี่ยนแปลงหรือวิกฤติใหม่ ๆ ในอนาคต เนื้อหาโดย เมธี ศรีสุบันฑิตตรวจทานและปรับปรุงโดย นนทวิทย์ ชีวเรืองโรจน์
11 November 2022
ปราบมะเร็งด้วย Big Data
หลายคนคงไม่เคยทราบว่าการวิจัยวิทยาศาสตร์ชีวการแพทย์ (Biomedical Science) นั้นเป็นหนึ่งในงานที่สร้างข้อมูลปริมาณมหาศาลมาพักใหญ่ ๆ แล้ว จุดเริ่มต้นของการใช้งานข้อมูลขนาดใหญ่ หรือ “Big Data” ในงานชีวการแพทย์ก็คือการตั้งฐานข้อมูลเก็บลำดับเบสของสิ่งมีชีวิตชนิดต่าง ๆ ในช่วงทศวรรษ 1980 ทั้งลำดับเบสดีเอ็นเอ (GenBank) และลำดับโปรตีน (SwissProt/UniProt) โดยตั้งแต่ปี 1982 เป็นต้นมา มีลำดับเบสดีเอ็นเอเฉพาะของมนุษย์สะสมอยู่ในฐานข้อมูลสูงถึงสองหมื่นเจ็ดพันล้านเบสแล้ว ข้อมูลปริมาณมหาศาลแบบนี้นอกจากต้องใช้ทรัพยากรมหาศาลในการจัดเก็บและบำรุงรักษา การจะนำมาใช้งานก็ต้องใช้ทรัพยากรและระเบียบวิธีที่มหาศาลไม่แพ้กัน และเมื่อพูดถึงโรคภัยไข้เจ็บของมนุษย์ หัวข้อวิจัยอันดับหนึ่งก็คือมะเร็งนั่นเอง ซึ่งสะท้อนได้จากจำนวนเงินที่หน่วยงานวิจัยสุขภาพที่ใหญ่ที่สุดในโลกอย่าง National Institutes of Health (NIH) โดยในปี 2019 นั้นเงินวิจัยที่จัดสรรให้กับโรคมะเร็งนั้นมาเป็นอันดับ 1 นำหน้าโรคติดเชื้อและโรคสมอง แต่สามปีหลังนี้เพราะโรคโควิด-19 ทำให้การจัดสรรเงินวิจัยโรคติดเชื้อสูงขึ้น ในปี 2021 จึงตกมาอยู่อันดับที่ 3 รองจากโรคติดเชื้อและโรคสมอง แล้วหัวข้อหลักที่เกี่ยวกับการวิจัยมะเร็งมีอะไรบ้าง? ผมขอแบ่งเป็นสามหัวข้อหลักแบบนี้ครับ การวิจัยมะเร็งเพื่อศึกษาการเกิดมะเร็งในระดับโมเลกุล (Molecular Carcinogenesis) เริ่มที่หัวข้อแรกก่อนก็คือการศึกษาการเกิดมะเร็งในระดับโมเลกุล ในปี 2006 นั้นประเทศสหรัฐอเมริกาได้เริ่มโครงการศึกษามะเร็งในระดับโมเลกุลแบบครบวงจร (Comprehensive Molecular Study) โดยโครงการนี้เริ่มขึ้นหลังจากที่โครงการจีโนมมนุษย์นั้นได้ร่างเบื้องต้นของจีโนมมาในปี 2003 [หลายคนอาจจะคิดว่าเราได้จีโนมมนุษย์ที่สมบูรณ์มาตั้งแต่ปี 2003 แต่ในความเป็นจริงแล้วเราได้แค่ “ร่าง” (Draft) มาเท่านั้น มีความสมบูรณ์อยู่ที่ 85% ส่วนร่างที่สำเร็จสมบูรณ์แบบ ไม่มีช่องว่างในจีโนมใด ๆ แล้วนั้นเพิ่งเสร็จเมื่อมีนาคม 2022 นี้เอง] โดยมีชื่อโครงการว่า The Cancer Genome Atlas (TCGA) ซึ่งคนตั้งชื่อคงพยายามล้อตัวย่อของโครงการให้ตรงกับชนิดของนิวคลีโอไทด์สี่ตัวในดีเอ็นเอ นั่นก็คือ Thymidine, Cytosine, Guanine, และ Adenine นั่นเอง เป้าหมายของโครงการก็คือต้องการสำรวจจีโนมและข้อมูลระดับโมเลกุลอื่น ๆ ของมะเร็งให้หลากหลายชนิดที่สุดเท่าที่จะเป็นไปได้ เพื่อที่จะเข้าใจว่ามะเร็งต่าง ๆ นั้นมีที่มาอย่างไร เติบโตได้อย่างไร ลักษณะพันธุกรรมแบบไหนในมนุษย์ที่เร่งหรือเพิ่มความเสี่ยงการเกิดมะเร็ง ซึ่งข้อมูลต่าง ๆ ที่ได้จากโครงการนี้อาจจะนำไปสู่การพัฒนาตัวบ่งชี้ชีวภาพที่สามารถตรวจจับมะเร็งในระยะต้น (Early Detection Biomarker), ตัวบ่งชี้ชีวภาพเพื่อวินิจฉัยโรค (Diagnostic Biomarker), ตัวบ่งชี้ชีวภาพที่ทำนายการรอดชีพ – ดูว่าโอกาสที่จะมีชีวิตอยู่หลังจากได้รับการรักษานั้นเป็นอย่างไร (Prognostic Biomarker), รวมไปถึงข้อมูลการเลือกใช้ยา (Personalized/Precision Medicine) โครงการนี้แม้ว่าจะจบไปแล้วในปี 2018 แต่โดยสรุปแล้วมีชนิดของมะเร็งที่ศึกษาทั้งหมด 33 ชนิด จำนวนผู้ป่วยที่บริจาคตัวอย่างทั้งหมดประมาณ 8,000 คน มีชนิดของข้อมูลทั้งหมด 22 ชนิด จากโมเลกุลดีเอ็นเอ (การกลายพันธุ์ตำแหน่งเดี่ยว – Single Nucleotide Variant [SNV], การเปลี่ยนแปลงจำนวนชิ้นของยีนในโครโมโซม – Copy Number Variation [CNV], การเปลี่ยนแปลงโครงสร้างโครโมโซม – Structural Variation [SV]) โมเลกุลอาร์เอ็นเอ (การแสดงออกของยีน – Gene Expression, โมเลกุลควบคุมการแสดงออกของยีน – microRNA, การหลอมรวมของยีน – Fusion RNA, การตัดและเปลี่ยนรูปแบบอาร์เอ็นเอ – RNA Splice Junction/Isoform) และโมเลกุลโปรตีน (จำนวนโปรตีน – Protein Expression Quantification) รวมไปถึงข้อมูลแวดล้อมอื่น ๆ ที่ได้จากการตรวจรักษาโรคมะเร็งแบบมาตรฐาน ตั้งแต่ค่าแล็บพื้นฐานจากการตรวจเลือดปกติ ภาพจากการตรวจด้วยรังสี ทั้ง X-Ray, CT-scan, MRI, Ultrasound โดยข้อมูลระดับที่บุคคลธรรมดาอย่างเรา ๆ จะเข้าถึงได้นั้นมีปริมาณอยู่ที่ 15 Terabyte แต่ข้อมูลดิบที่สามารถนำเอามาทำการวิเคราะห์ได้อย่างละเอียดนั้นมีปริมาณอยู่ที่ 2.59 Petabyte ปริมาณข้อมูลดิบนี้อาจจะดูน้อยเมื่อเทียบกับข้อมูลของบริษัทอินเตอร์เน็ตยักษ์ใหญ่ทั้งหลาย แต่ต้องอย่าลืมว่าในระหว่างการวิเคราะห์ข้อมูลนั้นก็จะเกิดข้อมูลระหว่างทางขึ้นอีกหลายเท่า การจะวิเคราะห์ข้อมูลเหล่านี้ตามปกติใช้คอมพิวเตอร์ส่วนตัวไม่ได้อยู่แล้ว จำเป็นต้องใช้งาน High-Performance Computer (HPC) ในการวิเคราะห์และเก็บข้อมูล เข้าไปลองดูข้อมูลได้ที่ Genomics Data Common (GDC) Portal ข้อมูลจากโครงการ TCGA นั้นเพิ่มพูนความรู้พื้นฐานของโรคมะเร็งหลายชนิดแบบก้าวกระโดด ยกตัวอย่างเช่นในมะเร็งเต้านมในท่อน้ำนมระยะต้น (Ductal Carcinoma In Situ – DCIS) นั้นสามารถแบ่งได้เป็น 4 แบบ ซึ่งมีอัตรารอดชีพทั้งก่อนและหลังจากการรักษาที่แตกต่างกัน และในระดับโมเลกุลนั้น มะเร็งเต้านม DCIS มีความคล้ายกับมะเร็งรังไข่อีกด้วย ความรู้พื้นฐานอื่น ๆ จากมะเร็งชนิดอื่น ๆ หลัก ๆ ก็จะเป็นการค้นพบยีนที่เป็นหลักในการก่อมะเร็งหากยีนเหล่านี้กลายพันธุ์ หรือที่เรียกกันว่า Driver Gene หรือการพบความผิดปกติในระดับโมเลกุลอื่น ๆ เช่นจำนวนก็อปปี้ของยีนที่เพิ่มขึ้น หรือโครงสร้างโครโมโซมที่เปลี่ยนไป หรือการหลอมรวมกันของยีนที่ปกติอยู่แยกกัน เราไม่มีทางที่จะได้ข้อมูลแบบมามาได้เลยหากเราทำการศึกษามะเร็งแบบแยกโครงการย่อย ๆ ไม่มีการรวมกันของตัวอย่างในระดับโครงการแบบ TCGA การวิจัยมะเร็งเพื่อตรวจจับมะเร็งให้ได้เร็วที่สุดและรุกล้ำให้น้อยที่สุดก่อนจะลุกลาม (Early and Non-/Less-Invasive Cancer Detection) สำหรับหัวข้อที่สองคือการตรวจจับมะเร็งในระยะต้นและรุกล้ำให้น้อยที่สุดนั้นมีที่มาจากความจริงที่ว่าในมะเร็งแบบก้อนแข็ง (Solid Tumor) นั้น ผู้ป่วยมะเร็งจะมีโอกาสหายขาด (Cured) ได้สูงสุดนั้นขึ้นอยู่กับว่าตรวจพบมะเร็งในระยะใด ถ้าตรวจพบมะเร็งได้ในระยะแรก ๆ นั่นหมายความว่ามะเร็งนั้นยังไม่ลุกลามเข้าไปที่อวัยวะอื่น ๆ ยังสามารถรักษาให้หายขาดได้โดยการผ่าตัด (Surgical Resection) หรือใช้รังสีรักษา (Radio Therapy) กำจัดก้อนมะเร็งออกได้หมด ปัญหาก็คือตามปกติแล้วมะเร็งแบบก้อนแข็งมักจะไม่มีอาการใด ๆ บ่งบอกว่าเป็นมะเร็งเลย ผู้ป่วยจำนวนหนึ่งที่ตรวจพบมะเร็งมักจะพบจากการตรวจที่เกิดจากอาการที่ไม่เกี่ยวข้อง แล้วผลการตรวจนั้นพบมะเร็ง แม้แต่การตรวจคัดกรองมะเร็งโดยตรงในหลาย ๆ ชนิดมะเร็งก็ไม่สามารถตรวจพบมะเร็งได้เร็วพอ ตัวอย่างการคัดกรองมะเร็งดังกล่าวคือการใช้ซีทีสแกนแบบความเข้มข้นต่ำ (Low-dose CT Scan) การตรวจมะเร็งเต้านมด้วยแมมโมแกรม (Mammography Scan) การตรวจมะเร็งตับโดยวัดค่าอัลฟ่าฟีโตโปรตีน (a-Fetoprotein) หรือการตรวจมะเร็งปากมดลูกโดยใช้แปบสเมียร์ (Papanicolaou Smear) มีงานวิจัยจำนวนมากที่เริ่มออกมาบอกแล้วว่าการตรวจคัดกรองมะเร็งที่กล่าวมานั้นไม่มีความไว (Sensitivity) ที่สูงพอจะตรวจพบมะเร็งเหล่านี้ในระยะต้น ซ้ำร้ายในบางกรณีอาจจะก่อมะเร็งได้ เช่นในการใช้ Low-dose CT Scan ซึ่งผู้คนที่ถูกวินิจฉัยว่ามีความเสี่ยงจะเป็นมะเร็งปอด ซึ่งตอนแรกอาจจะไม่ได้เป็น แต่เมื่อเจอ Low-dose CT Scan บ่อย ๆ เข้าก็อาจจะกระตุ้นการเกิดมะเร็งได้ เป็นต้น อีกปัญหาหนึ่งซึ่งก็มีความสำคัญไม่แพ้กันก็คือ เมื่อตรวจคัดกรองแล้วพบว่าอาจมีก้อนมะเร็งอยู่ แพทย์จำเป็นจะต้องยืนยันว่าก้อนเนื้อต้องสงสัยนั้นเป็นเนื้อร้าย (Malignant Tumor) จริง...
31 October 2022
การพัฒนา Business Intelligence ด้วยธรรมาภิบาลข้อมูล
ธรรมาภิบาลข้อมูล (Data Governance หรือ DG) จะช่วยให้แน่ใจว่าข้อมูลของบริษัทซึ่งเป็นสินทรัพย์ธุรกิจที่มีค่าที่สุดนั้น ( Business Intelligence ) ได้รับการเก็บรักษาและนำไปใช้ได้อย่างมีประสิทธิภาพและปลอดภัยที่สุด ดังนั้นธรรมาภิบาลข้อมูลจึงจำเป็นต้องมีนโยบายขององค์กร กระบวนการ เทคโนโลยี และพนักงานรับผิดชอบในการพัฒนากรอบงานที่นำไปปฏิบัติได้ ตั้งแต่โครงสร้างหลักไปจนถึงระยะเวลาการนำไปใช้ กรอบธรรมาภิบาลข้อมูลบริษัท เป็นกรอบงานแบบองค์รวมที่เกี่ยวข้องกับบุคลากรที่มีคุณสมบัติเหมาะสม รวมถึงนโยบายและกระบวนการที่วางแผนไว้เพื่อใช้งานเทคโนโลยีข้อมูลขั้นสูงให้เกิดประโยชน์สูงสุด อีกทั้งเพื่อให้แน่ใจว่าเป็นการเก็บรักษาและใช้งานข้อมูลในแบบที่มีประสิทธิภาพมากที่สุด เป้าหมายหลักของธรรมาภิบาลข้อมูลของธุรกิจคือการเพิ่มคุณภาพของข้อมูล ลดค่าใช้จ่ายในการบริหารจัดการข้อมูล และควบคุมการเข้าถึงข้อมูลของทุกคนอย่างเคร่งครัด โดยปกติแล้ว วิธีการที่ธุรกิจใช้เพื่อบรรลุเป้าหมาย DG ของตนได้คือโดยการจัดตั้งนโยบาย มาตรฐาน และมาตรวัดที่เข้มงวด เพื่อไปให้ได้ผลลัพธ์ของการขับเคลื่อนด้วยข้อมูลตามที่ต้องการ โดยนโยบาย DG ในระดับพื้นฐานนั้นคือการออกกฎสำหรับการเข้าถึงและบริหารจัดการชุดข้อมูลขณะที่ยังคงยึดตามข้อบังคับด้านความเป็นส่วนตัวและการรักษาความปลอดภัยที่เกี่ยวข้องทั้งหมด โรคระบาดเพิ่มมูลค่าของข้อมูลบริษัท ตามการศึกษาของ Teradata ที่ได้จัดทำขึ้นเมื่อตุลาคม 2020 ผู้ตอบแบบสำรวจ 91% เห็นด้วยว่าโรคระบาดทำให้มูลค่าของข้อมูลในองค์กรสูงขึ้น ยิ่งไปกว่านั้น ผู้บริหารที่ตอบแบบสำรวจ 94% เห็นด้วยว่า “ข้อมูลเป็นสินทรัพย์ที่สำคัญ” ในขณะที่ความสำคัญของข้อมูลเชิงลึกและการตัดสินใจโดยใช้ข้อมูลเพิ่มขึ้นเรื่อย ๆ มุมมองในอีกด้านคือ “garbage in, garbage out,” ซึ่งหมายถึงการตัดสินใจโดยใช้ข้อมูลเชิงลึกหรือข้อมูลดิบที่ไม่มีคุณภาพ ก็จะส่งผลให้ได้ผลลัพธ์ที่ไม่ดี ซึ่งข้อมูลดิบที่แย่นั้นก็จะส่งผลกระทบในระยะยาวสำหรับธุรกิจ เพราะสามารถทำลายความไว้วางใจที่ลูกค้าและผู้ที่เกี่ยวข้องคนอื่นๆ มีให้ได้อย่างถาวร! ตามรายงานของ Gartner “87% ของธุรกิจทั้งหมด ไม่มีเครื่องมือ Business Intelligence หรือ  BI หรือการวิเคราะห์ข้อมูลที่มีประสิทธิภาพ” ทำให้องค์กรเกือบทั้งหมดประสบปัญหากับการใช้งานสินทรัพย์ข้อมูลของตน Gartner ได้จัดกลุ่มองค์กรที่มี BI ต่ำว่าเป็นกลุ่ม “พื้นฐาน” หรือ “มีโอกาส”  Gartner กล่าวซ้ำว่าองค์กรในระดับพื้นฐานถูกจำกัดอยู่ในการวิเคราะห์แบบสเปรดชีต ขณะที่องค์กรในระดับที่มีโอกาสจะมีหน่วยธุรกิจที่ติดตามข้อมูลดิบที่สะสมไว้และงานการวิเคราะห์ต่าง ๆ โดยไม่มีการควบคุมที่เป็นศูนย์กลาง หนึ่งในสี่คำแนะนำของการศึกษาดังกล่าวคือการนำโปรแกรมธรรมาภิบาลข้อมูลไปใช้ในทุกองค์กรเพื่อเพิ่มความตระหนักถึงความสำคัญและผลประโยชน์ของ DG ในการบริหารจัดการข้อมูลและการวิเคราะห์ของบริษัท DG ในการวิเคราะห์เชิงธุรกิจหรือใน BI วิทยากรที่งาน Webinar เรื่องการกำกับดูแล BI ได้อธิบายว่า “การกำกับดูแล BI” และ “ธรรมาภิบาลข้อมูล” เป็นสองคำที่ใช้บ่อยในแวดวง BI นั้นค่อนข้างแตกต่างจากกัน Webinar นี้เจาะลึกเรื่องงานการกำกับดูแลที่เกี่ยวข้องกับ BI บริษัทและคงจะมีประโยชน์ไม่น้อยสำหรับคนที่สนใจในด้านนี้ องค์กรที่ขับเคลื่อนด้วยข้อมูลค่อย ๆ เลิกใช้โปรแกรมที่เฉพาะเจาะจงกับงาน ปัญหา Data Silos ค่อย ๆ หายไป ธุรกิจสมัยใหม่ต้อนรับ “Data Flows” ที่ต่อเนื่องในทุก ๆ แผนกและการทำงานที่หลากหลาย ด้วยความนิยมที่เพิ่มขึ้นของเทคโนโลยีรุ่นใหม่อย่างเช่น AI และการเรียนรู้ของเครื่องจักรกล (ML) ความสำคัญของคุณภาพของข้อมูลและธรรมาภิบาลข้อมูลก็เพิ่มขึ้นด้วย ตามการศึกษาเดียวกันของ Teradata ได้ระบุไว้ว่าผู้บริหารที่ตอบแบบสำรวจ 77% เชื่อว่าปัจจุบันนี้ “องค์กรมุ่งความสำคัญไปที่ความถูกต้องแม่นยำของข้อมูล” โดยปกติแล้วเมื่อข้อมูลทางธุรกิจถูกนำไปวิเคราะห์ต่อ เพื่อทำการเปรียบเทียบหรือเพื่อเป็นข้อมูลทางการแข่งขัน เราจะเรียกวิธีการนี้เรียกว่า Business Intelligence (BI) หรือการวิเคราะห์ข้อมูลในเชิงธุรกิจ ในกรณีของ BI โปรแกรมธรรมาภิบาลข้อมูลบ่งบอกถึง “ขั้นตอนของการนำไปปฏิบัติและบังคับใช้สิทธิอำนาจในการบริหารจัดการข้อมูลและแหล่งข้อมูลที่เกี่ยวข้อง” ด้วย BI ที่สามารถกำกับดูแลข้อมูลได้ บริษัทคาดหวังที่จะทำการตัดสินใจที่ดีขึ้น และในระยะเวลาที่สั้นลง  ตามที่ผู้เฝ้าสังเกตการณ์ธุรกิจเห็น เมื่อเวลาผ่านไป ศักยภาพของ BI ขั้นสูงจะง่ายขึ้นและใช้งานได้ฟรี การศึกษาของ Forbes ยืนยันว่าองค์กรที่ใช้งาน BI ที่มี DG เป็นหลักซึ่งมีประสิทธิภาพต่างรายงานถึง “ผลกำไรที่เพิ่มขึ้นอย่างมาก” จากการลงทุนใน BI ของพวกเขา Elizabeth Mixson (เอลิซาเบ็ธ มิกสัน) ผู้เขียน The Ultimate Guide to Data Governance ให้ความเห็นว่า “หัวใจของการวิเคราะห์ข้อมูลคือการกำกับดูแลข้อมูล แต่พระเอกตัวจริงที่ไม่ได้รับการพูดถึงคือณภาพของข้อมูล ความสามารถในการนำไปใช้งาน และการรักษาความปลอดภัย” วิธีที่จะกล่าวถึง เป็นวิธีการบางวิธีที่จะช่วยปรับปรุงการวิเคราะห์ข้อมูลขององค์กรและการใช่งาน BI: ธรรมาภิบาลข้อมูลสำหรับ BI แบบบริการตนเอง ในองค์กรส่วนใหญ่ เป้าหมายสำคัญของทีม DG คือการ “ลดความเสี่ยงของการใช้ข้อมูลอย่างไม่เหมาะสม” ตามคำพูดของนักเขียนที่ต้องการจะแบ่งปันเรื่องราวเบื้องหลังในการทำ DG สำหรับ Business Intelligence แบบบริการตนเองนั้น นักธุรกิจสายลุยมักจะใช้วิธีแก้ปัญหาที่สร้างสรรค์ของตนเพื่อหลีกเลี่ยงการลงโทษจาก “นโยบาย DG” ภายในองค์กรของพวกเขา ผู้กล้าเสี่ยงเหล่านี้ใช้ “ไฟล์ Excel และรายการ SharePoint ด้วยข้อมูลที่ป้อนเข้าไปเอง” เพื่อบรรลุเป้าหมายในวิธีของพวกเขาเอง วิธีประณีประนอมแบบคนละครึ่งทางก็คงจะเป็น BI แบบบริการตนเองที่มีการบริหารจัดการข้อมูลไว้แล้ว ทำให้นักธุรกิจเข้าถึงข้อมูลที่พวกเขาต้องการได้ง่ายขึ้น แต่อย่างไรก็ตามการเข้าถึงก็ยังคงอยู่ภายใต้ระบบและกระบวนการที่ทีม DG ตั้งไว้อย่างเคร่งครัด ซึ่งถ้าหากเป็นแบบนี้แล้วกลุ่ม DG และนักธุรกิจก็จะกลายเป็นพันธมิตรกัน โดยสามารถเข้าถึงข้อมูลได้ภายใต้เงื่อนไขที่เข้มงวด สิ่งที่ดีที่สุดที่ได้จากบทความในลิงก์ด้านบนสรุปได้ว่า DG และ BI แบบบริการตนเองเป็นพันธมิตรต่อกันและเราก็ควรมองเช่นนั้น โครงการ DG โดยปกติจะเริ่มจากแผน แต่แผนมักจะเปลี่ยนเมื่อกลยุทธ์ขององค์กรเปลี่ยน ซึ่งการสร้างความสมดุลที่พิเศษนี้เกิดขึ้นได้ในบริษัทระดับโลกด้วยความช่วยเหลือของ Power BI ถ้ามองในแง่ BI ช่วยปรับปรุงการใช้งาน DG โดยการฝังการวิเคราะห์อย่างฉลาดเข้าไปในระบบและกระบวนการขององค์กร เป้าหมายสูงสุดของการใช้งาน DG แบบมี BI คือการก้าวผ่านมาตรวัดคุณภาพไปและเริ่มสำรวจต้นเหตุของความผิดพลาดในระบบ เช่น การสืบหาแหล่งที่มาของข้อมูลดิบที่ไม่ดี เฝ้าสังเกตการณ์ความถี่ของความผิดพลาดที่เกิดขึ้นในระบบ หรือวิเคราะห์ว่าคุณภาพข้อมูลนั้นดีขึ้นหรือไม่เมื่อเวลาผ่านไป ซึ่งการใช้งาน DG ที่มีการวิเคราะห์ที่ซับซ้อนแบบนี้จะเกิดขึ้นได้ก็ต่อเมื่อมี BI ฝังอยู่ในระบบ ธรรมาภิบาลข้อมูลสำหรับ BI: ตัวอย่างและผลประโยชน์ นี่คือตัวอย่างกรณีการใช้ DG สำหรับ BI ในบริษัท: ผลประโยชน์ของ DG สำหรับ BI: ขณะที่ BI บ่งชี้ถึงวิธีการบริหารจัดการข้อมูลที่ขับเคลื่อนด้วยเทคโนโลยีอย่างสูง DG อิงถึงกลยุทธ์แบบองค์รวมหรือกรอบงานสำหรับการทำให้เป้าหมายธุรกิจโดยรวมสอดคล้องกับเป้าหมายเชิงวิเคราะห์ของบริษัท  DG เปลี่ยนข้อมูลดิบให้เป็นสินทรัพย์เชิงกลยุทธ์ บทความโดย Paramita (Guha) Ghoshเนื้อหาจากบทความของ Dataversityแปลและเรียบเรียงโดย ไอสวรรค์ ไชยชะนะตรวจทานและปรับปรุงโดย นนทวิทย์ ชีวเรืองโรจน์
3 September 2022
Data Tax เมื่อข้อมูลมีมูลค่าเหมือนสินทรัพย์ แล้วต่อไปจะโดนเก็บภาษีไหม?
เมื่อข้อมูลมีมูลค่ามหาศาลเฉกเช่นเดียวกับน้ำมันหรือทองคำ มาลองดูกันว่าจะมีการเก็บภาษี Data tax หรือไม่ และจะส่งผลกระทบอะไรกับเรา
30 June 2022
การออกแบบ Data Visualization ให้ Accessible
การทำให้ Data Visualization นั้น Accessible ช่วยให้ผู้รับสารทุกคนสามารถเข้าถึงสิ่งที่เราต้องการจะนำเสนอโดยไม่พลาดอะไรไปเพราะข้อจำกัดต่าง ๆ
22 June 2022
เปิดประวัติคุณโก้ ณัฐพงษ์ บุตรพรหม จากนักดนตรีสู่ Corporate Data Analytic
แนะนำตัว สวัสดีครับ ผมชื่อโก้ ณัฐพงษ์ บุตรพรหม ( Data Analytic ประวัติคุณโก้ ณัฐพงษ์ )อดีตมือเบสแบ็คอัพให้กับ “ดา เอ็นโดรฟิน” ครับ ปัจจุบันเปลี่ยนสายงาน ผันตัวมาทำงานด้าน Data ตำแหน่ง Corporate Data Analytic ในทีม Marketing Strategy ที่บริษัท LEARN Corporation ครับ จุดเริ่มต้นในวงการดนตรี ผมเริ่มต้นเล่นดนตรีอาชีพครั้งแรกตอนปี 3 ครับ ที่ร้านชื่อ Park2Bar อยู่ตรงซอย สุขุมวิท 101/1 ตอนนั้นจำได้ว่าค่าตัวคืนละ 500 บาทเองครับ ร่วมงานกับ “ดา เอ็นโดรฟิน” ได้ยังไง ตอนอยู่ปี 4 (ดุริยางคศาสตร์ ศิลปากร เอก Jazz Performance – Electric Bass) ผมกำลังเตรียมทำ Recital Concert ซึ่งเป็นโปรเจกต์จบ แต่มีปัญหาขึ้นมา ทำให้ทุกอย่างต้องเลื่อนไปปีถัดไป ตอนนั้นผมก็เครียดครับ แล้ววันดีคืนดีพี่เอิง อภิญญ์ รัชตะหิรัญ รุ่นพี่ที่คณะก็มาชักชวนไปเล่นแบคอัพให้ดา ผมก็ตัดสินใจเริ่มงานในวันรุ่งขึ้นเลย ซ้อมกันอยู่เดือนนึง แล้วก็ไปลุยทัวร์คอนเสิร์ตยาวเลย จนอยู่ด้วยกันมา 5 ปี เป็นช่วงเsวลาที่สนุกมาก ๆ จุดพลิกผันที่ทำให้เข้าสู่วงการ Data จุดเริ่มต้น เริ่มจากตอนนั้นผมเริ่มสนใจพวก Crypto กำลังศึกษาทำความเข้าใจกับเรื่องแนวนี้ แล้วมีโอกาสได้คุยกับคุณแฟรงค์ วสุพล สุทัศนานนท์ มือ Keyboard ที่เล่นด้วยกันในวง Rooftop ซึ่งตัวเขาก็เป็น CEO ของ Matching Platform ด้านดนตรีอันนึง ชื่อ “เล่นสด” เราได้คุยกันแล้วก็รู้สึกถูกคอ คุยกันรู้เรื่อง คุณแฟรงค์ก็ชวนผมมาทำงานที่บริษัท เพราะเห็นว่าผมมีความรู้แล้วก็สนใจในเรื่องเทคโนโลยี ตำแหน่งที่ทำคือ Artist Management ตอนแรกผมก็นึกว่าเป็นงานที่ต้องคอยดูแลศิลปินหน้างาน แต่พอได้มาทำจริงปรากฏว่ามันคือการ “จัดการข้อมูล และความสัมพันธ์” ของศิลปินทั้งหมดบนแพลตฟอร์ม ผมงงไปเลยครับ เพราะตอนนั้นทำอะไรไม่เป็นเลย แม้แต่ Google Sheet ก็ยังใช้ไม่เป็น สูตรอะไรไม่ต้องพูดถึง ตอนผมจะบวกเลขผมยังต้องเอาเครื่องคิดเลขมาบวกก่อนแล้วค่อยเอาไปกรอกลงตาราง จะเพิ่ม column ก็ต้องขอให้น้อง ๆ มาทำให้ ซึ่งน้อง ๆ ก็ช่วยผมเต็มที่ ยังจำได้ว่าช่วงเดือนแรกผมต้องโทรหาศิลปินทั้งหมดแล้วกรอกข้อมูลด้วยมือล้วน ๆ เลย Pain ด้วยความที่มีศิลปินบนแพลตฟอร์มเยอะมากๆ จนจุดหนึ่งมันเกิด Pain ว่า ”ทั้งหมดนี่มันทำ manual ไม่ไหวแน่ๆ” มันจัดการอะไรไม่ได้เลย ถ้ายังทำแบบเดิมยังไงก็ตาย เลยรู้สึกว่าเราต้องทำอะไรสักอย่างแล้วล่ะ ก็เลยค่อยๆเริ่มหาข้อมูล หาวิธีการว่าเราจะแก้ปัญหานี้ได้ยังไงบ้างแล้วก็เริ่มได้เรียนรู้สิ่งใหม่ ๆ วิธีการใหม่ ๆ เริ่มเจอ Tools ที่ตอบโจทย์เรามาเรื่อยๆ ตอนนั้นใช้สูตรหนักมากขึ้น ๆ จน Google Sheet ค้าง ก็เลยคิดว่ามันคงทำได้แค่นี้แหละ สุดทางแล้ว จนได้มาเจอ Tableau แล้วก็ค้นพบว่าผมรู้สึกสนุกมากเวลาที่ได้เห็น Insight เวลาที่ค้นข้อมูลยิ่งเข้าใจลึกมากเท่าไหร่ มันยิ่งรู้สึกตื่นเต้นไปหมด Spark จากนั้นน้องที่บริษัทได้ไปขอเจ้านายให้ส่งผมไป Workshop ทำ Dashboard ที่ Skooldio กับ อาจารย์ เช็ค ดร. ธนชาตย์ ฤทธิ์บำรุง จากตอนแรกที่มั่วเอาเอง พอไปทำ Workshop ก็ได้รู้ว่าสิ่งที่ถูกต้องคืออะไร สิ่งที่ควรทำคืออะไร วันนั้นมันวันเปิดโลกของผมเลยครับ รู้สึกว่าโลกที่ผมรู้มันกว้างขึ้นมาก ได้รู้อะไรเพิ่มขึ้นเต็มไปหมด ความรู้ที่ได้รับในวันนั้น ยังใช้อยู่ทุกวันในวันนี้ ครับ (กราบขอบพระคุณ น้องโต้ พี่ ๆ ฟังใจ และอาจารย์เช็ค สำหรับ Spark ที่สำคัญครั้งนี้) พอกลับมา ตั้งแต่นั้นผมก็รับเหมาวิเคราะห์ข้อมูลทั้งหมดของบริษัทเลยครับ ขอขอบคุณ “เล่นสด”(Lensod) และ “ฟังใจ”(Fungjai) มากๆเลย ที่เชื่อใจ และให้โอกาสเสมอมา คิดถึงทุกคนเสมอนะครับ วิกฤตที่เข้ามาแบบไม่ตั้งตัว แล้วพอ COVID-19 มา บริษัทเราจำเป็นต้องลดขนาดลง และผมก็เป็นหนึ่งในกลุ่มนั้น ก็เลยตัดสินใจเอาเวลามาเริ่มเรียน Data อย่างจริงจังที่ DataCamp และตั้ง OKRs ส่วนตัวไว้ว่าต้องทำงานสาย Data ให้ได้ พอเข้าเรียนฝึกฝนมาเรื่อย ๆ ผมอยากเข้าใจว่า คนที่ทำงานในสาย Data เขามีวิธีคิดยังไงเขามองสิ่งต่าง ๆ ยังไงแล้วเขาทำอะไรกัน จึงเริ่มสังเกตจากคนใน Community เริ่มขออนุญาตแอดเฟรนด์คนที่ทำงานสาย Data เพื่อขอติดตามผลงาน ตอนแรกก็รู้สึกเขิน ๆ นะครับ แต่เพราะความอยากรู้ก็ต้องลุย ผมได้รับความรู้จากชุมชนเยอะมาก ทั้งสิ่งที่ทุกคนคอยมาแชร์และการแสดงความคิดเห็นที่หลากหลายของคนในวงการ ทำให้ผมเข้าใจสายงานนี้กว้างขึ้นมาก ๆ การค้นหาหนทาง และความหวัง จนวันนึง ผม DM ไปถาม คุณ ชารินทร์  พลภาณุมาศ ไปขอคำปรึกษาเกี่ยวกับงานในสายนี้ว่า “คุณ ชารินทร์ ครับ เงินเดือนที่ควรจะเรียกหากต้องการเข้าทำงานสายนี้ โดยเป็นคนข้ามสายแบบผม ควรจะเรียกเท่าไหร่ถึงจะโอเคครับ” แล้วก็ได้คำแนะนำดี ๆ มามากมาย มีอยู่ 2 อย่างที่ผมเชื่อว่าสำคัญและส่งผลอย่างมากกับอาชีพที่ทำอยู่ปัจจุบันก็คือ หนึ่ง “จุดแข็งคือ BI (Business Intelligence) ถ้าอยากได้งานเร็วต้องโฟกัสเรื่องนั้น พอได้งานแล้วต่อไปอยากเปลี่ยนมาทำโมเดลหรืออะไรค่อยเรียนต่อ” และ ข้อสอง “ทำเว็บไซต์หรืออะไรง่าย ๆ เพื่อรวบรวมผลงาน” ผมจึงเริ่มทำ Portfolio อย่างง่าย ๆ ตามคำแนะนำด้วย GitHub Pages และ ทำโปรเจกต์ #MAKEOVERMONDAY ทุก ๆ สัปดาห์ สะสมใส่ไว้ใน Portfolio เรื่อยมา (ปัจจุบันก็ยังทำอยู่ครับ) โฟกัสเพียงเท่านี้ ในช่วงเวลายากลำบากของโรคระบาดนั้น อาจารย์ อเล็กซ์ ผ.ศ. ดร.วรพล พงษ์เพชร และ อาจารย์ เช็คดร. ธนชาตย์ ฤทธิ์บำรุง...
21 April 2022
การออกแบบ Data Visualization ให้คนตาบอดสีสามารถเข้าใจได้ด้วย
รู้หรือไม่ว่า ประมาณ 8% ของประชากรชาย และ 0.5% ประชากรหญิงทั่วโลกนั้นมีอาการตาบอดสี แล้วเราจะมีวิธีการอย่างไรให้ Data Visualization ของเราสามารถเข้าใจได้โดยคนกลุ่มนี้? เรามาดูกันครับ
1 July 2021
เลือกแผนภาพอย่างไรสำหรับการทำ Data Visualization
หากเรามีข้อมูลมากมายไปหมด วิธีการที่ง่ายที่สุดในการหา Insight หรือสื่อสารจากข้อมูลก็คือการทำ Data Visualization แต่เราเลือกกราฟหรือแผนภาพอย่างไร?
19 March 2021
PDPA Icon

We use cookies to optimize your browsing experience and improve our website’s performance. Learn more at our Privacy Policy and adjust your cookie settings at Settings

Privacy Preferences

You can choose your cookie settings by turning on/off each type of cookie as needed, except for necessary cookies.

Accept all
Manage Consent Preferences
  • Strictly Necessary Cookies
    Always Active

    This type of cookie is essential for providing services on the website of the Personal Data Protection Committee Office, allowing you to access various parts of the site. It also helps remember information you have previously provided through the website. Disabling this type of cookie will result in your inability to use key services of the Personal Data Protection Committee Office that require cookies to function.
    Cookies Details

  • Performance Cookies

    This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

  • Functional Cookies

    This type of cookie enables the Big Data Institute (Public Organization)’s website to remember the choices you have made and deliver enhanced features and content tailored to your usage. For example, it can remember your username or changes you have made to font sizes or other customizable settings on the page. Disabling these cookies may result in the website not functioning properly.

  • Targeting Cookies

    "This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

Save settings
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.