Glossary
นิยามที่เข้าใจง่ายเป็นภาษาไทย สำหรับทีมที่ไม่ใช่สาย tech
กระบวนการทำงานที่ออกแบบมาให้ AI ทำส่วนหนึ่งโดยอัตโนมัติ มีจุดรับข้อมูล (trigger) ขั้นตอนการประมวลผล และผลลัพธ์ที่ชัดเจน สร้างด้วยเครื่องมืออย่าง n8n, Make หรือ Zapier
Workflow รับอีเมลลูกค้า → สรุปด้วย LLM → จัดประเภทปัญหา → ส่งต่อทีมที่รับผิดชอบ ประหยัดเวลา triage ได้ 2-3 ชั่วโมงต่อวัน
ช่องทางมาตรฐานที่ให้ซอฟต์แวร์สองตัวสื่อสารกัน เวลาพูดถึง AI API มักหมายถึงการเรียกใช้โมเดลเช่น GPT หรือ Claude ผ่านโค้ดแทนที่จะใช้หน้าเว็บ ทำให้ฝัง AI เข้าไปในระบบของตัวเองได้
นักพัฒนาเรียก OpenAI API เพื่อให้แอปแปลภาษาอัตโนมัติก่อนส่งอีเมลไปลูกค้าต่างประเทศ โดยไม่ต้องเปิด ChatGPT เอง
AI ที่ทำงานแบบตัวแทน สามารถวางแผน ตัดสินใจ และลงมือทำงานหลายขั้นตอนได้เองโดยไม่ต้องรอคำสั่งทุกขั้น เช่น ค้นข้อมูล เขียนโค้ด และส่งอีเมลในการทำงานชิ้นเดียว
Agent วิเคราะห์ตลาดที่รับ brief แล้วค้น Google สรุปข้อมูล สร้าง slide และส่งกลับภายใน 20 นาที โดยไม่ต้องมีคนคอยสั่งทีละขั้น
เทคโนโลยีที่ทำให้คอมพิวเตอร์สามารถทำงานที่ปกติต้องใช้ความคิดของมนุษย์ เช่น การเข้าใจภาษา การมองเห็น การตัดสินใจ และการเรียนรู้จากประสบการณ์
ระบบแนะนำสินค้าของ Shopee ที่รู้ว่าคุณสนใจอะไร หรือ Siri ที่เข้าใจคำสั่งเสียง ต่างเป็น AI ในชีวิตประจำวัน
การทำให้งานที่ทำซ้ำๆ เกิดขึ้นเองโดยไม่ต้องมีคนลงมือ AI automation ต่างจาก automation แบบเก่าตรงที่รับมือกับงานที่มีความหลากหลายและต้องตีความได้ ไม่ใช่แค่งานที่กำหนดกฎได้ชัดเจน
Automation แบบเก่าย้ายไฟล์ตาม folder rule, AI automation อ่านเนื้อหาอีเมล ตัดสินว่าเป็นประเภทไหน และจัดการต่อตามบริบท
ปริมาณข้อความสูงสุดที่ LLM สามารถจำและนำมาพิจารณาในคำตอบเดียว วัดเป็น token ยิ่ง context window ใหญ่ โมเดลยิ่งรับเอกสารหรือบทสนทนายาวได้มากขึ้น
Claude มี context window 200,000 tokens ซึ่งรับได้ประมาณ 150,000 คำ ช่วยให้อ่านทั้งสัญญาหรือรายงานยาวๆ ได้ทีเดียว
เทคนิค Machine Learning ที่ใช้โครงข่ายประสาทเทียมหลายชั้น เหมาะกับข้อมูลที่ซับซ้อนอย่างรูปภาพ เสียง และข้อความ เป็นพื้นฐานของ LLM สมัยใหม่
Google Photos ที่จดจำหน้าคนในอัลบั้ม หรือ Whisper ที่แปลงเสียงพูดเป็นข้อความได้แม่นยำล้วนใช้ Deep Learning
การฝึกโมเดล AI ที่มีอยู่แล้วต่อด้วยข้อมูลเฉพาะทาง เพื่อให้โมเดลเชี่ยวชาญงานเฉพาะหรือเลียนแบบสไตล์และมาตรฐานขององค์กร โดยใช้ทรัพยากรน้อยกว่าการฝึกใหม่ตั้งแต่ต้น
บริษัทกฎหมายนำ fine-tuning มาปรับโมเดลให้ใช้ภาษาสัญญาเฉพาะสาขา และรู้จักรูปแบบเอกสารของตัวเองโดยไม่ต้องอธิบายซ้ำทุกครั้ง
โมเดล AI ขนาดใหญ่ที่ถูกฝึกบนข้อมูลหลากหลายและสามารถปรับใช้กับงานหลายประเภทได้โดยไม่ต้องฝึกใหม่ตั้งแต่ต้น ทำหน้าที่เป็นฐานที่นำไป fine-tune ต่อ
บริษัทใช้ GPT-4 เป็น foundation model แล้ว fine-tune ด้วยข้อมูลสัญญาของตัวเองเพื่อสร้างผู้ช่วยตรวจสัญญาเฉพาะองค์กร
ปรากฏการณ์ที่ AI สร้างข้อมูลที่ฟังดูสมเหตุสมผลแต่ไม่เป็นความจริง เช่น อ้างอิงบทความที่ไม่มีอยู่จริง หรือให้ตัวเลขที่คลาดเคลื่อน ถือเป็นความเสี่ยงสำคัญในงานที่ต้องการความแม่นยำสูง
ChatGPT เคยแนะนำงานวิจัยทางการแพทย์พร้อม DOI ที่ฟังดูน่าเชื่อถือแต่ไม่มีอยู่จริง นักกฎหมายบางรายเคยนำเอกสารเท็จไปใช้ในศาลเพราะเชื่อ AI โดยไม่ตรวจสอบ
โมเดล AI ขนาดใหญ่ที่ถูกฝึกบนข้อความจำนวนมหาศาล สามารถเขียน สรุป แปล ตอบคำถาม และสนทนาได้เหมือนมนุษย์ ตัวอย่างได้แก่ GPT-4, Claude, Gemini
ทีมการตลาดใช้ LLM ร่างอีเมลแคมเปญ 10 เวอร์ชันใน 5 นาที แทนที่จะเขียนทีละฉบับ
สาขาย่อยของ AI ที่ให้คอมพิวเตอร์เรียนรู้จากข้อมูลโดยไม่ต้องโปรแกรมทุกกฎอย่างละเอียด ระบบจะค้นหาแพตเทิร์นเองและปรับปรุงความแม่นยำเมื่อได้รับข้อมูลเพิ่ม
โมเดลที่ธนาคารใช้ตรวจจับธุรกรรมผิดปกติเรียนรู้จากประวัติบัตรเครดิตหลายล้านรายการ แทนที่จะเขียนกฎทุกข้อด้วยมือ
โมเดล AI ที่รับและประมวลผลข้อมูลได้หลายรูปแบบพร้อมกัน เช่น ข้อความ รูปภาพ เสียง และวิดีโอ ในคำสั่งเดียว
ส่งรูปถ่ายสัญญาให้ GPT-4o แล้วถามว่า สรุปเงื่อนไขสำคัญใน 3 บรรทัด โมเดลอ่านรูปและตอบกลับเป็นข้อความได้ทันที
โครงสร้างคณิตศาสตร์ที่ได้รับแรงบันดาลใจจากสมองมนุษย์ ประกอบด้วยโหนดจำนวนมากที่เชื่อมกันเป็นชั้นๆ ทำหน้าที่รับข้อมูล ประมวลผล และส่งออกผลลัพธ์
Neural Network ที่อยู่เบื้องหลัง ChatGPT มีพารามิเตอร์นับร้อยพันล้านตัวที่ถูกปรับแต่งจากข้อความบนอินเทอร์เน็ตมหาศาล
ทักษะในการออกแบบคำสั่ง (prompt) ที่ส่งให้ AI เพื่อให้ได้ผลลัพธ์ที่ตรงตามต้องการ ครอบคลุมทั้งโครงสร้างคำสั่ง บริบท ตัวอย่าง และข้อจำกัด
แทนที่จะพิมพ์ว่า สรุปรายงาน การเพิ่ม role, format และ constraint เข้าไปให้ผลลัพธ์ดีขึ้นมาก เช่น เป็น analyst, สรุปใน 5 bullet, ภาษาไทย ไม่เกิน 100 คำ
อัตราผลตอบแทนจากการลงทุน (Return on Investment) สำหรับโครงการ AI วัดได้หลายรูปแบบเช่น เวลาที่ประหยัดได้ต่อสัปดาห์ ต้นทุนที่ลดลง ความผิดพลาดที่ลดลง หรือรายได้ที่เพิ่มขึ้น
ทีม 5 คนเสียเวลา triage ticket 3 ชั่วโมงต่อวัน ถ้า AI ทำได้ 80% ROI คือประมาณ 12 ชั่วโมงต่อวัน ซึ่งเทียบกับค่า subscription รายเดือนให้ผลตอบแทนชัดมาก
เทคนิคที่ให้ AI ค้นหาข้อมูลจากฐานความรู้ขององค์กรก่อน แล้วนำมาประกอบคำตอบ แทนที่จะพึ่งเฉพาะความรู้ที่ฝังอยู่ในโมเดล ทำให้ตอบได้แม่นยำและอ้างอิงแหล่งข้อมูลได้
ระบบ chatbot ของฝ่าย HR ที่ดึงข้อมูลจาก policy handbook ล่าสุดก่อนตอบคำถามพนักงาน แทนที่จะตอบจากความจำของโมเดลล้วนๆ
หน่วยข้อมูลที่เล็กที่สุดที่ LLM ใช้ประมวลผล คร่าวๆ คือ 1 token ประมาณ 0.75 คำในภาษาอังกฤษ ภาษาไทยใช้ token มากกว่าเพราะตัวอักษรมีความหลากหลายสูง รู้เรื่อง token ช่วยประเมินต้นทุนและขีดจำกัดของ API ได้
เอกสาร 10 หน้าภาษาอังกฤษใช้ประมาณ 3,000-4,000 tokens ถ้าเรียก GPT-4 API อ่านเอกสารนี้ทุกวัน 30 ครั้ง ต้นทุนจะคำนวณได้จาก token ที่ใช้คูณกับราคาต่อ token
ข้อมูลที่ใช้สอน AI ให้เรียนรู้แพตเทิร์นและทักษะ คุณภาพและปริมาณของ training data มีผลโดยตรงต่อความสามารถของโมเดล
ถ้าจะสร้างโมเดลวิเคราะห์รีวิวสินค้าภาษาไทย ต้องเตรียมรีวิวพร้อมป้ายกำกับว่า บวก/ลบ นับพันรายการเป็น training data
สถานการณ์การใช้งานจริงที่ AI สร้างคุณค่าในธุรกิจ เช่น จัดเรียง support ticket อัตโนมัติ หรือ สรุป meeting notes การระบุ use case ที่ชัดก่อนเลือกเครื่องมือช่วยหลีกเลี่ยงการซื้อ AI ที่ไม่ได้ใช้จริง
ก่อนทดสอบเครื่องมือ AI ใดๆ ให้ตอบให้ได้ว่า ใครใช้ ทำอะไร บ่อยแค่ไหน และผลลัพธ์ที่ดีหน้าตาเป็นอย่างไร ถ้าตอบไม่ได้ use case ยังไม่พร้อม
ฐานข้อมูลพิเศษที่จัดเก็บข้อมูลในรูปแบบเวกเตอร์ (ชุดตัวเลข) เพื่อให้ค้นหาเนื้อหาที่ความหมายใกล้เคียงกันได้เร็ว เป็นส่วนสำคัญของระบบ RAG
Pinecone หรือ Weaviate เก็บเนื้อหาคู่มือทั้งหมดเป็นเวกเตอร์ ทำให้เมื่อพนักงานถามว่า นโยบายลาป่วยเป็นยังไง ระบบหาเอกสารที่ตรงที่สุดได้ทันที