Chainarong Tumapha

Chainarong Tumapha

Senior Data Engineer Big Data Institute (Public Organization), BDI

บทความทั้งหมด

All Articles

Author Category Post Filter
บริหาร BigQuery ยังไงให้คุ้ม (BigQuery Cost Optimization)  
BigQuery เป็นเครื่องมือทรงพลังสำหรับการวิเคราะห์ข้อมูลขนาดใหญ่ แต่หากใช้ไม่เป็น ค่าใช้จ่ายอาจพุ่งสูงโดยไม่รู้ตัว มาเรียนรู้เทคนิคการใช้งาน BigQuery อย่างชาญฉลาด เพื่อให้ได้ประสิทธิภาพสูงสุดในราคาที่คุ้มค่าที่สุด BigQuery คืออะไร  BigQuery คือบริการวิเคราะห์ข้อมูลแบบคลาวด์ (Cloud Data Analytics Service) ที่นำเสนอโดย Google Cloud Platform เป็นโซลูชั่นที่มีความสามารถในการประมวลผลข้อมูลในขนาดใหญ่และความเร็วสูง โดยไม่ต้องมีการจัดการกับโครงสร้างพื้นฐานเอง ทำให้ผู้ใช้สามารถโฟกัสที่การวิเคราะห์ข้อมูลได้มากขึ้น  คุณสมบัติหลักของ BigQuery  การใช้งาน  BigQuery เหมาะสำหรับการวิเคราะห์ข้อมูลในหลากหลายรูปแบบ เช่น:  BigQuery เป็นเครื่องมือที่มีประสิทธิภาพสูงสำหรับองค์กรที่ต้องการทำการวิเคราะห์ข้อมูลที่ซับซ้อนและในปริมาณมาก โดยไม่ต้องลงทุนในโครงสร้างพื้นฐานด้านไอทีที่มีค่าใช้จ่ายสูง  การคิดค่าใช้จ่าย  การคิดราคาของ BigQuery แบ่งออกเป็น 2 ส่วนหลัก: ราคาสำหรับการประมวลผล (Compute Pricing) และราคาสำหรับการจัดเก็บข้อมูล (Storage Pricing)  การประมวลผล (Compute Pricing)  BigQuery มีสองโมเดลการคิดราคาสำหรับการประมวลผล:  การจัดเก็บข้อมูล (Storage Pricing)  BigQuery มีการคิดราคาสำหรับการจัดเก็บข้อมูลสองประเภท:  โดยพื้นที่การจัดเก็บข้อมูล 10 GiB แรกจะไม่มีค่าใช้จ่าย  เทคนิคการลดค่าใช้จ่ายของ BigQuery  ปัญหาส่วนใหญ่ของราคาที่เกิดขึ้น มักจะมาจากการประมวลข้อมูลที่มีขนาดใหญ่บ่อยด้วยการคิดเงินแบบ On-Demand ทำให้ไม่สามารถควบคุมค่าใช้จ่ายที่เกิดขึ้นได้ โดยวิธีในการลดค่าใช้จ่ายนั้นก็มีหลากหลายวิธี ดังนี้  เป็นการจัดเก็บข้อมูลในฐานข้อมูลที่มีการเก็บผลลัพธ์ของการสืบค้น (query) ไว้ล่วงหน้าเป็นตารางจริง ๆ ในฐานข้อมูล ซึ่งต่างจาก standard view ที่จะดำเนินการสืบค้นใหม่ทุกครั้ง ซึ่งจะเหมาะกับการประมวลข้อมูลที่ต้องการรวมข้อมูล (aggregate) การกรองข้อมูลบางส่วน, การผสมข้อมูลกับตารางอื่น เป็นต้น โดยสามารถศึกษาเพิ่มเติมได้ที่ Link   เป็นบริการวิเคราะห์ข้อมูลที่ถูกจัดเก็บอยู่ในหน่วยความจำ (in-memory) ซึ่งจะมีการจัดเก็บข้อมูลที่ถูกใช้อยู่บ่อย ๆ ทำให้ไม่ต้องย้อนกลับไปประมวลผลข้อมูลตั้งแต่ต้น ช่วยลดการอ่านข้อมูลซ้ำ ๆ ได้เป็นอย่างดี สามารถอ่านรายละเอียดเพิ่มเติมได้ที่ Link   การคิดราคาตามความสามารถในการประมวลผล (slots) ซึ่งเป็นหน่วยวัดการประมวลผลของ CPU เสมือนจริง ซึ่งจะเหมาะกับการประมวลผลข้อมูลที่สามารถรอได้นาน หรือข้อมูลที่ถูกอ่านเพื่อประมวลผลที่มีปริมาณที่มาก โดยสามารถปรับจำนวน slot ได้ตามต้องการและสามารถตั้งค่าให้ปรับแบบอัตโนมัติตามความต้องการใช้งานของระบบได้ ทำให้สามารถคาดการค่าใช้จ่ายที่จะเกิดขึ้นสูงสุดในแต่ละเดือน สามารถอ่านรายละเอียดเพิ่มเติมได้ที่ Link โดยวิธีการนี้จะมีการให้บริการในหลายราคาตามแพคเกจซึ่งจะเปรียบในตารางด้านล่างนี้     Standard  Enterprise  Enterprise Plus  On-demand pricing  Pricing model  Slot-hours (1 minute minimum)  Slot-hours (1 minute minimum)  Slot-hours (1 minute minimum)  Pay per query with free tier  Compute model  Autoscaling  Autoscaling + Baseline  Autoscaling + Baseline  On-demand  Commitment plans  No access to capacity commitments  1-year commitment at 20% discount or 3-year commitment at 40% discount  1-year commitment at 20% discount or 3-year commitment at 40% discount  No access to capacity commitments  Compliance controls  No access to compliance controls through Assured Workloads  No access to compliance controls through Assured Workloads  Compliance controls through Assured Workloads  Compliance controls through Assured Workloads  VPC Service Controls  No VPC Service Controls Support  VPC Service Controls Support  VPC Service Controls Support  VPC Service Controls Support  Fine-grained security controls  No access to fine-grained security controls  Column-level access control  Column-level access control  Column-level access control  Row-level security  Row-level security  Row-level security  Dynamic data masking  Dynamic data masking  Dynamic data masking  Custom data masking  Custom data masking  Custom data masking  Business Intelligence acceleration  No access to query acceleration through BI Engine  Query acceleration through BI Engine  Query acceleration through BI Engine  Query acceleration through BI Engine  Materialized views  Query existing materialized views directly  Create materialized...
26 August 2024
ตกผลึกข้อมูลของเรา ด้วย 6 Data Tools สุมหัวคุยกันเรื่องเดต้า
เคยได้ยินไหมด้วยประโยคสุดฮิตในหลายปีที่ผ่านมาว่า “Data is a new oil” ข้อมูลก็เหมือนขุมน้ำมันดี ๆ ที่ให้เราดึงไปใช้ประโยชน์กัน แต่วิธีในการนำมาใช้งานนั้นไม่ง่ายเลย ไม่ว่าจะเป็นปัญหาที่เกิดจากตัวข้อมูล ผู้ให้ข้อมูล เครื่องมือต่าง ๆ ที่ใช้ และรวมถึงบุคลากรที่เกี่ยวข้องกับเรื่องนี้ ดังนั้นในบทความนี้จะขอนำเสนอวิธีการต่าง ๆ ที่จะช่วยคลี่คลายปัญหาต่าง ๆ เหล่านี้ไปทีละ step โดยจะมีทั้งหมด 6 เครื่องมือด้วยกัน ซึ่งส่วนใหญ่นั้นผู้เขียนได้นำมาจาก Open Data Institute (ODI) ประเทศอังกฤษ เนื่องจากเคยได้รับการเข้าร่วมอบรมแล้วรู้สึกว่าสิ่งนี้จะช่วยให้ทีมที่ทำงานเกี่ยวกับข้อมูลนั้นแก้ไขปัญหาต่าง ๆ เหล่านี้ได้ โดยในการเรียงลำดับขั้นตอนนี้นั้น เราจะเน้นไปที่ปัจจัยสาเหตุต่าง ๆ จากภายนอก มายังปัจจัยภายในทีม แล้วค่อยมาที่ปัจเจกบุคคล Open Data Fundamental: เข้าใจธรรมชาติของข้อมูลเปิด โดยทั่วไปแล้วหากว่ากันด้วยการใช้ประโยชน์จากข้อมูลต่าง ๆ นั้นก็เป็นเรื่องที่ดีสำหรับข้อมูลที่เรามีอยู่แล้ว แต่หากเป็นข้อมูลจากที่อื่น ๆ จากทีมอื่น ๆ หล่ะ เราจะต้องทำยังไงเพื่อให้ได้ข้อมูลเหล่านั้นมา ในหัวข้อนี้จะเล่าถึงธรรมชาติของข้อมูลเปิดและเรื่องราวต่าง ๆ ที่เกี่ยวกับการทำความเข้าใจการเปิดหรือการให้ข้อมูลกัน รูปภาพจาก https://theodi.org/insights/tools/the-data-spectrum/ ภาพนี้เป็นตัวอย่างที่ดีที่ชี้ให้เห็นถึงธรรมชาติและระดับของข้อมูลที่อยู่รอบ ๆ ตัวเรา ซึ่งมีทั้งข้อมูลปิดที่เข้าถึงได้เฉพาะองค์กร ไปจนถึงข้อมูลเปิดที่อาจจะมีความละเอียดของข้อมูลที่น้อยกว่า แต่มีขนาดใหญ่กว่า และอาจหาได้ง่ายจากข้อมูลเปิดของภาครัฐ จะเห็นได้ว่าในแต่ละระดับเองก็จะมีชั้นความลับ และระดับการเข้าถึงข้อมูลที่แตกต่างกันออกไป ซึ่งหากเราต้องการข้อมูลจากที่อื่นนั้นก็อาจจะต้องคำนึงถึงระดับชั้นของข้อมูลด้วยว่าสามารถขอได้ถึงระดับไหน เมื่อเราพูดถึงเรื่องระดับชั้นของข้อมูลไปแล้วสิ่งต่อมาที่ต้องคิดคือ ถ้าเราต้องการข้อมูลจากทีมอื่นเราจะต้องทำอย่างไร ซึ่งโดยหลัก ๆ แล้วทาง ODI พบว่ามีอยู่ 2 สาเหตุหลัก ๆ ที่ทำให้การแชร์ข้อมูลนั้นเป็นเรื่องที่ยาก ได้แก่ รูปภาพจาก https://theodi.org/news-and-events/blog/what-are-data-institutions-and-why-are-they-important/ และด้วยการใช้ข้อมูลจากผู้อื่นหรือแม้กระทั่งเราต้องการให้คนอื่นมาใช้ข้อมูลของเรานั้น การสร้างความไว้เนื้อเชื่อใจเองก็เป็นสิ่งที่จำเป็นเช่นกัน โดยจะแบ่งหัวข้อเป็น 4 ระดับจากส่วนพื้นฐานไปสู่ยอดพีระมิด คำถามประจำหัวข้อนี้คือ เราเคยทบทวนกับหัวข้อทั้ง 4 เหล่านี้กับทีมเราหรือไม่ อะไรที่ยังเป็นพื้นฐานแต่เรายังขาดอยู่ แล้วเราจะทำให้ดีขึ้นได้อย่างไร เพื่อสร้างความไว้วางใจผู้ให้และใช้ข้อมูลที่เกี่ยวข้อง Data Infrastructure: สำรวจโครงสร้างพื้นฐานทางด้านข้อมูล องค์ประกอบพื้นฐานของข้อมูลนั้น ประกอบไปด้วย 5 อย่างหลัก ๆ ได้แก่ คำถามในหัวข้อนี้คือ คิดว่าเพื่อน ๆ ของเรามีสิ่งไหนบ้างจาก 5 ข้อด้านบนที่ยังไม่รู้ และสิ่งไหนใน 5 ข้อนี้ที่ทีมควรจะพัฒนาให้ดียิ่งขึ้นไปอีก Data Ecosystem Mapping: เข้าใจกลไกการแลกเปลี่ยนข้อมูล ในการทำงานเกี่ยวกับข้อมูลมาก ๆ นั้น การเข้าใจกลไกแลกเปลี่ยนและสร้างคุณค่าให้แก่ข้อมูลก็เป็นเรื่องที่สำคัญเช่นกัน โดยทาง ODI ก็จะมีแผนผังให้เราได้ลองวาด ecosystem ของเรากัน ใครเป็นผู้ใช้งานของเรา ใครเป็นผู้ให้ข้อมูลเราบ้าง แล้วมีความสัมพันธ์กันอย่างไร บางทีการ connect the dot ในแผนผังนี้อาจช่วยก่อให้เกิดไอเดียใหม่ ๆ หรือแนวทางใช้ข้อมูลใหม่เกิดขึ้นก็เป็นได้ แถมยังเป็นการบันทึกข้อมูลภายในทีมไว้เผื่อมีคนใหม่เข้ามาจะได้เข้าใจทีมได้มากขึ้นด้วย รูปภาพจาก https://theodi.org/documents/427/2022_ODI_Mapping-data-ecosystems-2022-update-1.pdf รายละเอียดสามารถอ่านเพิ่มเติมได้ที่ https://theodi.org/insights/guides/mapping-data-ecosystems/ Data Ethics Canvas: สร้างกรอบการใช้งานข้อมูลอย่างเหมาะสม กรอบการใช้งานข้อมูลที่ถูกต้อง นอกจากจะทำให้เราไม่เสี่ยงในเรื่องของกฎหมายแล้ว ก็ยังทำให้ผลกระทบเชิงลบต่อผู้ที่เกี่ยวข้องน้อยลงตามไปด้วย โดยทาง ODI ก็จะมีแผนผังให้เติมกัน เพื่อประเมินข้อมูลและผลกระทบที่อาจเกิดขึ้น รวมถึงแนวทางในการตัดสินใจกับงานของเราอีกด้วย รูปภาพจาก https://theodi.org/documents/468/Data-Ethics-Canvas-English-Colour-1.pdf รายละเอียดสามารถอ่านเพิ่มเติมได้ที่ https://theodi.org/insights/tools/the-data-ethics-canvas-2021/ Sustainable Data Institutions: มุ่งสู่การเติบโตอย่างยั่งยืน ในการเติบโตอย่างยั่งยืนจากการใช้งานข้อมูล ก็ต้องทำให้เกิดส่วนของรายได้เข้ามาด้วยเพื่อให้ทีมสามารถดูแลรักษาข้อมูลได้ต่อไป โดยโมเดลในการหารายได้นั้นอาจมาจากการเก็บค่าธรรมเนียมการใช้ข้อมูล ค่าประมวลผลข้อมูล ค่าวิเคราะห์หรือการให้บริการทางด้านข้อมูล ไปจนถึงการขอทุนและการรับบริจาค โดยสิ่งเหล่านี้เองก็เป็นเรื่องของภายในทีมว่าจะต้องตัดสินใจอย่างไรกันดี Data Skills: อนาคตเรา เราเป็นคนสร้าง ทางฝั่งของ ODI เองนั้นก็ได้ยกตัวอย่างสกิลและองค์ความรู้ต่าง ๆ ที่เกี่ยวข้องกับข้อมูลมาให้ดู ซึ่งอาจจะมีบางส่วนที่ตรงและไม่ตรงบ้างกับบริบทของทีม แต่คำถามคือ เรารู้ว่าสิ่งเหล่านี้จำเป็นกับทีมเราหรือไม่ และถ้าหากจำเป็นแต่เรายังขาดอยู่ การหาบุคลากรเพิ่มนั้นก็อาจเป็นทางออกที่ดี หรือจะพัฒนาคนในทีมของเราให้เก่งเพิ่มขึ้นก็ได้เช่นกัน นอกจากนั้นสกิลต่าง ๆ ก็อาจเป็นส่วนที่ช่วยสร้าง career path ให้กับในทีมของเราได้ทำสิ่งที่ชอบก็เป็นได้ รูปภาพจาก https://theodi.org/insights/tools/data-skills-framework/#main บทสรุป จากทั้งหมด 6 วิธีการนี้ ผู้เขียนเชื่อว่าผู้อ่านน่าจะได้มุมมอง ได้เห็นการใช้งานเครื่องมือต่าง ๆ เหล่านี้ไม่มากก็น้อย เพื่อนำไปสานต่อโครงการหรืองานที่ทำอยู่เพื่อให้เกิดการใช้ข้อมูลที่หลากหลายยิ่งขึ้น สร้างกลยุทธ์ในการใช้ข้อมูลและให้ข้อมูลกับผู้ที่เกี่ยวข้องได้มากขึ้น รวมไปถึงการพัฒนาทีมให้สอดคล้องกับลักษณะการใช้และบริหารข้อมูลที่มีอยู่ด้วยทักษะต่าง ๆ เพื่อให้งานออกมาดีที่สุดครับ อ้างอิง https://theodi.org/insights/tools/
8 November 2023
เตรียมข้อมูลอย่างไรให้โมเดล Linear Regression ดีขึ้น
เราจะเตรียมข้อมูลด้วยการตรวจสอบทั้ง 4 วิธี ได้แก่ ความเป็นเชิงเส้น,การแจกแจง,ความแปรปรวน และความเป็นอิสระต่อกัน
10 October 2022
มาทำโมเดล recommendation อย่างง่ายกันเถอะ
สวัสดีครับคุณผู้อ่าน วันนี้ผมจะมาแนะนำการทำโมเดล recommendation อย่างง่าย ๆ ด้วย library ที่ชื่อว่า LightFM กันนะครับ ก่อนอื่นเลยเรามาทำความรู้จักกับเจ้า library ตัวนี้กันสักนิดนะครับ LightFM เป็นโมเดล recommendation แบบ hybrid ซึ่งถูกพัฒนาโดยบริษัทสินค้าแฟชั่นชื่อดังอย่าง lyst ที่สามารถแนะนำได้ทั้งแบบ content-based filtering และ collaborative filtering โดยผมจะขอยกตัวอย่างประกอบง่าย ๆ ของการแนะนำในแต่ละแบบนะครับ content-based filtering นั้นเป็นการแนะนำตามคุณสมบัติของสิ่งที่เราจะแนะนำครับ เช่น ถ้าโมเดลของเรารู้ว่าเราชอบกินต้มยำไก่ และรู้ว่าต้มยำนั้นเป็นอาหารประเภทซุป ประกอบไปด้วย ไก่, ข่า, ตะไคร้, ใบมะกรูด ถ้าวันไหนเราเบื่อต้มยำ อยากกินอย่างอื่น โมเดลก็จะแนะนำให้เรากินต้มข่าไก่แทนครับ เพราะเป็นอาหารประเภทซุปเหมือนกัน และประกอบไปด้วย ไก่, ข่า, ตะไคร้, ใบมะกรูด ครับ ส่วน collaborative filtering จะแนะนำสิ่งที่เราน่าจะชอบจากกลุ่มคนที่ชอบอะไรเหมือน ๆ กับเราครับ เช่น เราชอบกินข้าวหมูกรอบ และหลาย ๆ คนที่ชอบกินข้าวหมูกรอบส่วนมากก็จะกิน ผัดคะน้าหมูกกรอบ และ กระเพราหมูกรอบด้วย ดังนั้น โมเดลก็จะแนะนำให้เรากินผัดคะน้าหมูกรอบและกระเพราหมูกรอบครับ ฟังดูน่าสนใจแล้วใช่ไหมครับ งั้นเรามาลองเริ่มทำโมเดลกันเลย โดยโมเดลนี้จะเป็นการแนะนำภาพยนตร์จากชุดข้อมูล movielens ซึ่งเป็นชุดข้อมูลที่ติดมากับโมเดลอยู่แล้ว เราไม่ต้องไปหามาเพิ่มแต่อย่างใด ขั้นตอนแรก คือการเตรียมสิ่งที่ต้องใช้ก่อนนะครับ โดยทำการติดตั้งแพ็กเกจต่าง ๆ ที่เกี่ยวข้องดังนี้ครับ จากนั้นเราก็สร้างไฟล์ขึ้นมาตามแต่สะดวกจะเป็น python file หรือ python notebook เพื่อใช้สร้างโมเดลของเรา ทำการ import library กันก่อนนะครับ ในตัวอย่างนี้เราจะใช้การแนะนำที่คำนวณจาก loss function ที่ชื่อว่า warp ซึ่งจริง ๆ มีตัวอื่น อย่าง brp, k-os warp และ logistic ให้เราเลือกด้วย โดยเงื่อนไขของข้อมูลที่เราจะ train ด้วย warp นั้น จะต้องเป็นข้อมูลภาพยนตร์ที่เขาชอบเท่านั้นครับ ดังนั้นเราจึงเลือกที่จะดึงข้อมูลคะแนน rating ภาพยนตร์มาโดยเลือกแค่ rating ที่ไม่น้อยกว่า 4 จากนั้นเราก็ทำการสร้างโมเดล และนำข้อมูลไป train ครับ โดย num_threads คือ จำนวนแกนประมวลผลในเครื่องที่เราจะใช้ในการคำนวณโมเดลครับ ในที่นี้ใส่เบื้องต้นไว้เป็น 2 เพียงเท่านี้เราก็จะได้โมเดลมาแล้วครับ หลังจากนี้จะเป็นการนำโมเดลมาใช้แนะนำภาพยนตร์ที่เราชอบ เราจะสร้างฟังก์ชันขึ้นมา ช่วยในการแนะนำครับ เมื่อเราให้โมเดลแนะนำภาพยนตร์สำหรับ user 3, 25, 451  จะเรียกใช้ฟังก์ชันได้แบบนี้ และนี่ก็คือผลลัพธ์ที่ได้ โดยสรุปแล้วการแนะนำผ่าน library lightFM นั้นสามารถทำได้ง่าย ๆ เพียงไม่กี่บรรทัดเท่านั้น โดยผลการแนะนำอาจมีความแตกต่างกันไปเพราะมีการสุ่มตัวอย่างในการ train โมเดลครับ สำหรับท่านที่อยากจะศึกษาเพิ่มเติม ผมได้แปะลิงก์อ้างอิงและลิงก์ที่น่าสนใจไว้ด้านล่างนะครับ ไว้มีโอกาสเราจะมาเจาะลึกการทำงานของ library ตัวนี้กันครับ LightFM’s Documentation LightFM’s Github How to build a Movie Recommender System in Python using LightFm
22 April 2022
ถอดบทเรียน Scrum in Big data ภาครัฐ: Part III
ในยุคสมัยที่เปลี่ยนไป การทำงานต่าง ๆ ก็มักจะต้องคิดหาวิธีเพิ่มศักยภาพการทำงาน เพื่อสร้างความพึงพอใจต่อลูกค้าให้ได้มากที่สุด โดยเฉพาะในอุตสาหกรรม digital ที่มีเปลี่ยนแปลงค่อนข้างไว ดังนั้นในบทความไตรภาคนี้ผมจากทีม big data ภาครัฐ ก็จะมาเล่าว่า เมื่อภาครัฐทดลองนำ scrum มาประยุกต์ใช้แล้วจะมีผลออกมาเป็นอย่างไรบ้าง โดยภาคสุดท้ายนี้เล่าถึง ผลที่เกิดขึ้นจากการนำ Scrum ไปประยุกต์ใช้ในองค์กรครับ
23 March 2021
ถอดบทเรียน Scrum in Big data ภาครัฐ: Part II
ในยุคสมัยที่เปลี่ยนไป การทำงานต่าง ๆ ก็มักจะต้องคิดหาวิธีเพิ่มศักยภาพการทำงาน เพื่อสร้างความพึงพอใจต่อลูกค้าให้ได้มากที่สุด โดยเฉพาะในอุตสาหกรรม digital ที่มีเปลี่ยนแปลงค่อนข้างไว ดังนั้นในบทความไตรภาคนี้ผมจากทีม big data ภาครัฐ ก็จะมาเล่าว่า เมื่อภาครัฐทดลองนำ scrum มาประยุกต์ใช้แล้วจะมีผลออกมาเป็นอย่างไรบ้าง โดยภาคสองนี้เล่าถึง การนำ Scrum ไปประยุกต์ใช้ในองค์กรครับ
12 March 2021
ถอดบทเรียน Scrum in Big data ภาครัฐ: Part I
สวัสดีครับ ขอต้อนรับเข้าสู่บทความไตรภาคอันยิ่งใหญ่ที่จะเล่าเกี่ยวกับการปรับตัวทางดิจิตอล (Digital Transformation) ที่หลายองค์กรจะต้องพบเจอ และสิ่งที่น่าจะเปลี่ยนแปลงมากที่สุดก็คงหนีไม่พ้นวิธีการทำงาน (Working Process) ที่จะต้องตามสมัยเพื่อให้ได้ผลลัพธ์ที่ดีที่สุด ตอบสนองนโยบายขององค์กรหรือความต้องการของตลาด วันนี้ผมจึงจะมาเล่า Case Study ที่น่าสนใจนั่นก็คือ สถาบันส่งเสริมการวิเคราะห์และบริหารข้อมูลขนาดใหญ่ภาครัฐ (GBDi) ที่เป็นหน่วยงาน Big data ภาครัฐ ได้นำการทำงานในรูปแบบของ Scrum มาปรับใช้กับหน่วยงาน เพื่อช่วยส่งเสริมการทำงานให้สามารถส่งมอบงานที่มีคุณค่าต่อลูกค้าได้เร็วขึ้น สามารถตรวจสอบการทำงานของทีมได้ละเอียดชัดเจนขึ้น และรองรับการเปลี่ยนแปลง Requirement ได้อย่างรวดเร็ว ซึ่งโดยทั่วไปนั้นหลักการของ Scrum ส่วนใหญ่มักจะใช้กันในสายพัฒนาซอฟแวร์ ดังนั้นจะเป็นอย่างไรเมื่อ GBDi ที่เป็นหน่วยงานภาครัฐสาย Data ได้นำการทำงานแบบ Scrum มาประยุกต์และปรับใช้ โดยบทความนี้จะแบ่งเป็น 3 ตอนย่อย ๆ ดังนี้ ตอนที่ 1: คอนเซ็ปต์ Scrum ล้วน ๆ ไม่มีวัวผสม ตอนนี้จะเล่าถึงคอนเซ็ปต์ของ Scrum ที่ประกอบด้วยหลักการและทฤษฎีต่าง ๆ ก่อนการนำมาปรับใช้ โดยจะเล่าถึง 3 หัวข้อหลัก ดังนี้ “เอาล่ะ ถ้าพร้อมแล้ว มาเริ่มกันเลย” Scrum คืออะไร Scrum เป็นวิธีการทำงานที่กำหนดช่วงเวลาในการทำงานของแต่ละรอบ โดยแต่ละรอบจะมีกิจกรรมที่ใช้บริหารทีมเหมือน ๆ กัน มีการส่งมอบผลิตภัณฑ์หรือฟีเจอร์ต่าง ๆ ให้ลูกค้าทุก ๆ รอบ เพื่อรับข้อเสนอแนะจากลูกค้ากลับมาปรับปรุงในรอบถัดไป ซึ่งนอกจากจะทำให้การทำงานรวดเร็วขึ้นแล้ว กิจกรรมต่าง ๆ ที่จัดขึ้นก็ยังทำให้สามารถตรวจสอบการทำงานของแต่ละคนได้ ทำให้เกิดความโปร่งใสมากยิ่งขึ้น ตามทฤษฎีแล้ว Scrum ประกอบด้วย 3 คุณสมบัติ ได้แก่ บทบาทหน้าที่ของคนในทีม ใน scrum จะแบ่งคนในทีมออกเป็น 3 กลุ่มหลัก ๆ คือ กิจกรรมที่เกิดขึ้นใน Scrum ก่อนที่จะเริ่มต้นในหัวข้อนี้ เรามาทำความรู้จักกับคำว่า Sprint กันก่อนนะครับ Sprint หมายถึง ช่วงเวลาในการทำงาน 1 รอบ ซึ่งในแต่ละรอบจะมีการดำเนินกิจกรรมใน Scrum ทั้งหมด ประกอบด้วย Sprint Planning, Daily Scrum, การทำงาน, Sprint Review และ Sprint Retrospective เอาล่ะ เรามาพูดถึงกิจกรรมจริง ๆ กันดีกว่า สรุป การทำงานด้วย Scrum ซึ่งเป็นวิธีการทำงานที่ให้ความโปร่งใส ตรวจสอบได้ และยืดหยุ่นต่อการเปลี่ยนแปลง ทำให้สามารถส่งมอบผลผลิตภัณฑ์ที่มีคุณค่ากับลูกค้าอย่างต่อเนื่องโดยทุกคนจะมีตำแหน่งใน Scrum ที่ชัดเจนและแต่ละตำแหน่งก็จะมีบทบาทในกิจกรรมที่แตกต่างกันออกไป และในตอนหน้าเราจะมาดูบทบาทขององค์กรและการนำ Scrum ไปประยุกต์ใช้กันครับ 😀 อ้างอิง https://www.atlassian.com/agile/scrum/ceremonieshttps://www.scrumguides.org/scrum-guide.htmlhttps://medium.com/fastwork-engineering/scrum-คืออะไร-เริ่มใช้งานอย่างไร-2483e761a47e
25 January 2021
PDPA Icon

We use cookies to optimize your browsing experience and improve our website’s performance. Learn more at our Privacy Policy and adjust your cookie settings at Settings

Privacy Preferences

You can choose your cookie settings by turning on/off each type of cookie as needed, except for necessary cookies.

Accept all
Manage Consent Preferences
  • Strictly Necessary Cookies
    Always Active

    This type of cookie is essential for providing services on the website of the Personal Data Protection Committee Office, allowing you to access various parts of the site. It also helps remember information you have previously provided through the website. Disabling this type of cookie will result in your inability to use key services of the Personal Data Protection Committee Office that require cookies to function.
    Cookies Details

  • Performance Cookies

    This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

  • Functional Cookies

    This type of cookie enables the Big Data Institute (Public Organization)’s website to remember the choices you have made and deliver enhanced features and content tailored to your usage. For example, it can remember your username or changes you have made to font sizes or other customizable settings on the page. Disabling these cookies may result in the website not functioning properly.

  • Targeting Cookies

    "This type of cookie helps the Big Data Institute (Public Organization) understand user interactions with its website services, including which pages or areas of the site are most popular, as well as analyze other related data. The Big Data Institute (Public Organization) also uses this information to improve website performance and gain a better understanding of user behavior. Although the data collected by these cookies is non-identifiable and used solely for statistical analysis, disabling them will prevent the Big Data Institute (Public Organization) from knowing the number of website visitors and from evaluating the quality of its services.

Save settings
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.