Please wait...
SOLUTIONS CORNER
Fine Tuning GPT 3.5 Turbo รุ่นเฉพาะของบริษัท ประสิทธิภาพเท่า GPT 4

Fine-Tuning GPT-3.5 Turbo เปิดประตูสู่รุ่นเฉพาะของบริษัท มาพร้อมประสิทธิภาพระดับ GPT-4 


Fine-tuning for GPT-3.5 Turbo opens door for company-specific models, GPT-4 level performance

OpenAI ระบุว่าข้อมูลลูกค้าจะไม่ถูกนำมาใช้เพื่อวัตถุประสงค์ในการฝึก Training ของตัวเอง

ขณะนี้นักพัฒนาสามารถปรับแต่งโมเดล GPT-3.5 Turbo ของ OpenAI อย่างละเอียดได้ โดยใช้ข้อมูลของตนเอง เพื่อให้โมเดลสามารถทำงานได้ดีขึ้น ทั้งสำหรับเพื่อใช้งานเป็นเคสๆ หรือแบรนด์เฉพาะของตนเอง 
สิ่งๆ นี้ อาจเป็นประโยชน์ต่อบริษัทต่างๆ ที่ใช้ OpenAI API ในปัจจุบัน ตอบสนองต่อความต้องการด้านปัญญาประดิษฐ์แบบภายใน (AI) เช่น การขับเคลื่อนแชทบอตที่ต้องพูดคุยกับลูกค้า หรือสำหรับการสร้างคำแนะนำการเขียน Code เป็นต้น  

ผ่านการปรับปรุง GPT-3.5 Turbo ด้วยข้อมูลที่มีคุณภาพ โดย OpenAI กล่าวว่านักพัฒนาสามารถสร้างโมเดลที่ได้รับการ Fine-Tuned ซึ่งเกินความสามารถของ GPT-4 ที่เป็นโมเดลภาษาขนาดใหญ่ที่ทรงพลังที่สุด
มีการอ้างถึงประโยชน์ของโมเดล Fine-Tuning รวมไปถึงเอาต์พุตที่เชื่อถือได้มากขึ้นสำหรับรูปแบบเฉพาะ เช่น Code การควบคุมโทนเสียงของเอาต์พุตข้อความที่ดีขึ้น และความสามารถในการควบคุมทิศทางที่ดีขึ้น หรือที่เรารู้จักกันในชื่อความสามารถของโมเดลในการทำตามคำแนะนำของผู้ใช้อย่างถูกต้องนั่นเอง

นอกจากนี้ ธุรกิจยังสามารถพยายามปรับปรุงประสิทธิภาพของโมเดลและลดระยะเวลาที่พนักงานต้องเตรียมพร้อมในแต่ละช่วงเวลาได้ 
ในโพสต์ที่มีการประกาศ OpenAI ระบุว่า Fine-Tuning โมเดลที่มาพร้อมคำแนะนำทั่วไปจะช่วยลดขนาดคำสั่งได้ถึง 90% ในการทดสอบเบื้องต้น
การ Fine-Tuning GPT-3.5 Turbo จะมีค่าใช้จ่ายด้านธุรกิจอยู่ที่ 0.008 เหรียญดอลลาร์สหรัฐฯ ต่อ 1,000 โทเค็น ในขณะที่อินพุตและเอาต์พุตมีราคา 0.012 และ 0.016 เหรียญดอลลาร์สหรัฐฯ ต่อ 1,000 โทเค็นตามลำดับ

บริษัทมุ่งมั่นที่จะนำความสามารถในการ Fine-Tuning GPT-4 มาสู่ลูกค้าในไตรมาสสุดท้ายของปี
OpenAI ได้ระบุว่าข้อมูลที่ใช้ในการฝึกโมเดลเริ่มต้นจะไม่ถูกใช้โดย OpenAI หรือองค์กรอื่นๆ เพื่อฝึก โมเดลเพิ่มเติม แต่อย่างไรก็ตาม มันจะถูกส่งผ่าน API แบบ Moderation และ GPT-4 และระบบการควบคุม GPT-4 อยู่ดี

ข้อมูลนี้จะถูกเก็บไว้นานถึง 30 วันเพื่อตรวจสอบการละเมิด ซึ่งหมายความว่า OpenAI จะเก็บข้อมูลที่ละเอียดอ่อนทุกครั้งที่มีการป้อนข้อมูลเข้าไป 
Ruth McGuinness หัวหน้าฝ่ายปฏิบัติการด้านข้อมูลและ AI ของ Kainos กล่าวกับ ITPro ว่าความสามารถในการ Fine Tune GPT-3.5 Turbo นั้นได้รับการยอมรับและมีประโยชน์มากมายเลย แต่แนวทางของ OpenAI ในด้านความเป็นส่วนตัวของข้อมูลและความปลอดภัยของข้อมูลนั้นจำเป็นต้องมีการตรวจสอบอย่างละเอียด
“องค์กรต่างๆ ควรกำหนดขอบเขตตามความเสี่ยงสำหรับการ Fine-Tuning” McGuinness กล่าว


แนะนำให้หลีกเลี่ยงเนื้อหาที่ละเอียดอ่อน โดยเฉพาะ PII ซึ่งควรสำรวจวิธีการอื่นที่ปรับปรุงการตอบสนองโดยไม่ต้องแบ่งปันข้อมูลอย่างกว้างขวาง ตัวอย่างเช่น ความสามารถในการรวมเครื่องมือของผู้จำหน่ายระบบคลาวด์ เช่น การค้นหา (ร้านค้าเวกเตอร์) และ Code นอกจานี้ยังสามารถช่วยในการปรับแต่งโมเดลได้ดีขึ้น โดยนำเสนอบริบทโดเมนสำหรับองค์กรโดยไม่ต้อง Fine-Tuning โดยตรง”

“และเมื่อใช้บริการ Fine-Tuing องค์กรยังแนะนำให้พิจารณาข้อกังวลด้านความปลอดภัยของข้อมูลในวงกว้าง ผู้จำหน่ายระบบคลาวด์อาจเสนอการปกป้องข้อมูลที่ได้รับการปรับปรุง แม้ว่าจะมีการทบทวนข้อกำหนดความเป็นส่วนตัวและเงื่อนไขก่อนที่จะแนะนำให้รวมเข้าด้วยกันก็ตาม”
ประวัติของ OpenAI ในด้านการจัดเก็บและประมวลผลข้อมูลได้รับการตรวจสอบอย่างละเอียดในช่วงหลายเดือนที่ผ่านมา
ในเดือนมีนาคม บริษัทเปิดเผยว่าข้อผิดพลาดที่ทำให้ ChatGPT หยุดทำงานชั่วคราวก็เพราะได้เปิดเผยชื่อประวัติการแชตของผู้ใช้บางรายไปยังผู้ใช้รายอื่นโดยไม่ได้ตั้งใจ
และจากการตรวจสอบเพิ่มเติมพบว่า ข้อมูลการชำระเงิน ชื่อ และที่อยู่อีเมล 1.2% ของผู้ใช้บริการ Chat GPT Plus ที่ใช้งานอยู่ในช่วง 9 ชั่วโมงในวันที่หยุดให้บริการนั้นถูกเปิดเผย
Apple ได้สั่งห้ามพนักงานของตนใช้ ChatGPT เนื่องจากกังวลว่าข้อมูลอาจรั่วไหล และพนักงานสามารถส่งข้อมูลที่เป็นกรรมสิทธิ์ไปยังแชตบอทได้


ความเป็นส่วนตัวของ AI ที่บูมขึ้น 


ผู้จัดจำหน่ายที่ที่เพิ่มขึ้น กำลังให้บริการแก่ธุรกิจที่ต้องการฝึกโมเดล AI ของตนเองสำหรับกรณีการใช้งานเฉพาะ หรือเพื่อให้แน่ใจว่าพวกเขาจะปฏิบัติตามรูปแบบของบริษัทภายในองค์กรได้ 
ไม่ใช่ทุกบริษัทจะสามารถซื้อชิปที่ใหญ่ที่สุดของ Nvidia สำหรับ AI หรือสร้างซุปเปอร์คอมพิวเตอร์อย่างที่ Microsoft สร้างขึ้นสำหรับ AI ของตนเอง แต่รุ่นที่สามารถเทรนได้และตัวเร่งความเร็วฮาร์ดแวร์สามารถเข้าถึงได้ผ่าน Azure AI เช่น แพลตฟอร์ม AWS Bedrock และ Vertex AI ของ Google

นอกจากนี้ VMware และ Nvidia ยังได้เปิดตัวโซลูชัน AI ใหม่ๆ มากมายเพื่อสนับสนุนบริษัทที่ Training โมเดล AI ภายใต้แบนเนอร์ของ VMware Private AI Foundation ร่วมกับ Nvidia

VMware เน้นย้ำถึงปัญหาทางกฎหมายเกี่ยวกับการรวบรวมข้อมูลที่ละเอียดอ่อนสำหรับการ Training AI โดย CEO Raghu Raghuram กล่าวถึงความช่วยเหลือพิเศษที่บริษัทหลายแห่งอาจต้องเจอจากโมเดล AI ที่ได้รับการฝึกโดยใช้วิธีการที่มีความปลอดภัยน้อยกว่า

บริการ GreenLake for Large Language Models ของ HPE ช่วยให้ลูกค้าสามารถฝึกอบรมโมเดล AI บนข้อมูลของตนเองผ่านระบบคลาวด์แบบส่วนตัวแบบทางไกล นอกจากนี้ บริษัทยังมุ่งมั่นที่จะจัดการกับความกังวลเกี่ยวกับปริมาณความหนาแน่นของคาร์บอนในระบบ AI ซึ่งใช้พลังงานจำนวนมาก โดยการใช้พลังงานแบบหมุนเวียนเกือบ 100% สำหรับการบริการและการใช้น้ำเสียเพื่อระบายความร้อน

และ Dell ยังได้เปิดตัว Dell Validated Design สำหรับ Generative AI กับ Nvidia ซึ่งลูกค้าสามารถ ฝึกโมเดลของตนเองโดยใช้โครงสร้างพื้นฐานของ Dell ได้ ไม่ว่าจะเป็นโมเดลเริ่มต้นที่สร้างไว้ล่วงหน้า หรือจากข้อมูลทั้งหมดของตนเองก็ได้ 

แพลตฟอร์ม watsonx ของ IBM ได้รวมข้อมูลและ AI เข้าด้วยกัน โดยมีเป้าหมายเพื่อช่วยให้ธุรกิจจัดโครงสร้างข้อมูลในลักษณะที่สมเหตุสมผลสำหรับการ Training AI ในทางปฏิบัติ สิ่งนี้หมายถึง การจัดเก็บข้อมูลทั้งที่มีโครงสร้างและไม่มีโครงสร้างให้เป็นระเบียบ เนื่องจาก AI สามารถได้ถูกฝึกได้ดีขึ้น โดยไม่ต้องมีป้ายกกับของมนุษย์ที่อัลกอริทึมมองว่ามัน 'ไม่มีเหตุผล'

จากนั้นพวกเขาสามารถใช้แพลตฟอร์มเพื่อฝึกโมเดลพื้นฐานโดยใช้ข้อมูลของตน ในขณะเดียวกันก็สามารถรักษาและควบคุมข้อมูลขั้นสูงสุดของตนเองได้

ที่มา : 
https://bit.ly/3QaeOeB


ควิกเซิร์ฟ
สินค้า
งานระบบ
บริการ
กิจกรรม
ออนไลน์