Google ยกระดับทีมภายในเพื่อต่อต้านภัยคุกคามจาก ChatGPT
Please wait...
1726202978.png
1731393918.jpg
1732076627.jpg
1730459076.jpg
1730782055.jpg
1730966771.jpg
1731999875.jpg
SOLUTIONS CORNER
Google ยกระดับทีมภายในเพื่อต่อต้านภัยคุกคามจาก ChatGPT

Google "ยกระดับ" ทีมภายในเพื่อต่อต้านภัยคุกคามที่เกิดจาก ChatGPT


Google upends internal teams to counter ChatGPT

เห็นได้ชัดว่าผู้บริหารเปลี่ยนเส้นทางพนักงานเพื่อแข่งขันกับการพัฒนา ChatGPT

Google อยู่ในสถานะ 'code red' เนื่องจากยักษ์ใหญ่ด้านเทคโนโลยีดูเหมือนจะเผชิญกับความท้าทายที่เกิดจากการพัฒนา ChatGPT ล่าสุด ตามแหล่งข่าวภายในบริษัท มีรายงานว่าบริษัทได้มอบหมายแผนกภายในจำนวนหนึ่งใหม่เพื่อช่วยพัฒนาและเปิดตัวผลิตภัณฑ์ AI ใหม่เพื่อให้ทันกับการเร่งความเร็วอย่างรวดเร็วของระบบ AI ที่มีกำเนิดจะเปิดตัวในช่วงหลายเดือนที่ผ่านมา ศูนย์กลางของการเรียกเก็บเงินที่ต่ออายุนี้ที่ Google คือภัยคุกคามที่ยังคงอยู่ซึ่ง ChatGPT ซึ่งอาจก่อให้เกิดกับผลิตภัณฑ์และบริการหลักของบริษัท
 
นับตั้งแต่การเปิดตัวเมื่อ 3 สัปดาห์ที่แล้ว ChatGPT ได้สร้างความตื่นเต้นอย่างมากในระบบนิเวศเทคโนโลยีระดับโลกที่กว้างขึ้น ท่ามกลางคำกล่าวอ้างที่ว่าเทคโนโลยีดังกล่าวอาจกลายเป็นผู้ทำลายล้างครั้งใหญ่ในหลากหลายอุตสาหกรรม
 
ดูเหมือนว่า CEO Sundar Pichai จะเป็นผู้นำการเปลี่ยนแปลงที่รวดเร็วนี้ ตามบันทึกภายในและเสียงที่ได้รับจาก New York Times แหล่งข่าวที่ใกล้ชิดกับเรื่องนี้กล่าวว่าเขาได้ "ยกระดับ" การทำงานของหลายกลุ่มในบริษัทเพื่อ "ตอบสนองต่อภัยคุกคาม" ที่ ChatGPT ก่อขึ้น
 
ตามรายงานของ NYT “ตั้งแต่บัดนี้จนถึงการประชุมใหญ่ที่คาดว่าจะจัดโดย Google ในเดือนพฤษภาคม ทีมงานภายในการวิจัย, ความน่าเชื่อถือและความปลอดภัยของ Google และแผนกอื่นๆของ Google ได้รับมอบหมายใหม่เพื่อช่วยพัฒนาและเผยแพร่ต้นแบบและผลิตภัณฑ์ AI ใหม่ๆ”
 
นอกจากนั้น ยังมีการอ้างว่าพนักงานยังได้รับคำสั่งให้สร้างผลิตภัณฑ์ AI เชิงกำเนิดที่เทียบได้กับ DALL-E ของ OpenAI ที่ใช้กันอย่างแพร่หลายในการสร้างงานศิลปะและรูปภาพดิจิทัลอื่นๆ ซึ่ง DALL-E ถูกใช้โดยผู้คนมากกว่าสามล้านคนนับตั้งแต่เปิดตัวในเดือนมกราคม 2564 ซึ่งผลิตภัณฑ์คู่แข่งเหล่านี้อาจวางจำหน่ายโดยเป็นส่วนหนึ่งของ AI Test Kitchen ของยักษ์ใหญ่ด้านเทคโนโลยี
 

คู่แข่งที่ว่องไว

NYT แนะนำว่า ปัจจัยกระตุ้นสำคัญในการเปลี่ยนแปลงที่ Google ครั้งนี้คือ บริษัทมีความกังวลอย่างมากเกี่ยวกับโอกาสในการแข่งขันกับคู่แข่งรายเล็กที่คล่องตัวกว่าในพื้นที่ปัญญาประดิษฐ์
 
OpenAI ก่อตั้งขึ้นเมื่อปลายปี 2558 โดย Sam Altman, Elon Musk และกลุ่มนักลงทุน นับตั้งแต่เปิดตัว บริษัทได้เติบโตอย่างมากและวางตำแหน่งตัวเองเป็นผู้เล่นหลักในอุตสาหกรรม และด้วยการเปิดตัว ChatGPT ในปลายเดือนพฤศจิกายน บริษัทดูเหมือนจะเติบโตอย่างมากและกำลังดึงดูดนักลงทุน อีกทั้งรายงานล่าสุดจาก Reuters เปิดเผยว่าบริษัทคาดว่ารายรับจะเพิ่มขึ้นประมาณ 200 ล้านดอลลาร์ในปี 2566 และสูงกว่า 1 พันล้านดอลลาร์ในปี 2567
 
กล่าวอย่างกว้างๆคือ การกำนิดของพื้นที่ AI โดยรวมทำให้เราได้เห็นการลงทุนที่สำคัญในช่วงสองปีที่ผ่านมา โดยข้อมูลจาก PitchBook แสดงให้เห็นว่าการร่วมทุนในการลงทุน AI เชิงกำเนิดเพิ่มขึ้นถึง 425% ตั้งแต่ปี 2020 โดยมีการลงทุน 2.1 พันล้านดอลลาร์ในปี 2022 เพียงปีเดียว ซึ่งการเติบโตอย่างรวดเร็วนี้ บวกกับการเกิดขึ้นของผู้เล่นรายใหม่ในอุตสาหกรรม อาจเป็นภัยคุกคามร้ายแรงต่อองค์กรที่จัดตั้งขึ้นได้ เช่น Google ซึ่งลงทุนมหาศาลในผลิตภัณฑ์ AI
 
หลายปีที่ผ่านมา Google ได้ใช้เวลาอย่างมากในการพัฒนาแชทบอท และเมื่อช่วงต้นปีที่ผ่านมาก็ได้เข้าไปพัวพันกับเหตุการณ์ที่เป็นที่ถกเถียงเกี่ยวกับระบบ Language Model for Dialogue Applications หรือที่เรียกว่า 'LaMDA' ซึ่ง LaMDA นี้ถูกมองว่าเป็นคู่แข่งระยะยาวที่มีศักยภาพของ ChatGPT เป็นผลทำให้ LaMDA ได้รับความสนใจเป็นอย่างมากแต่ก็เป็นที่น่ากังวลเช่นกัน ตามคำกล่าวอ้างของวิศวกรของ Google อย่างไรก็ตาม แม้ว่า Google จะสามารถหักล้างคำกล่าวอ้างของ Blake Lemoine ได้ แต่เหตุการณ์ดังกล่าวได้แสดงให้เห็นถึงการก้าวกระโดดครั้งสำคัญของเทคโนโลยีแชทบอทที่เกิดขึ้นในช่วงไม่กี่ปีที่ผ่านมา
 
ตามเสียงจากการประชุมที่ได้รับจาก NYT ผู้บริหารอ้างว่าบริษัทตั้งใจที่จะปล่อยเทคโนโลยีแชท LaMDA ในรูปแบบบริการคลาวด์คอมพิวติ้งสำหรับลูกค้าภายนอก เช่นเดียวกับในการประชุม ที่มีข้อเสนอแนะว่ายักษ์ใหญ่ด้านเทคโนโลยีสามารถรวมเทคโนโลยีเข้ากับ "งานสนับสนุนลูกค้าง่ายๆ" ได้
 

ข้อกังวลเกี่ยวกับความแม่นยำ

สิ่งนี้อาจก่อให้เกิดปัญหาด้านจริยธรรมในอนาคตสำหรับ Google เนื่องจากผู้บริหารระบุว่าพวกเขาอาจจำกัดผลิตภัณฑ์ต้นแบบไว้สำหรับผู้ใช้เพียง 500,000 รายเท่านั้น และเตือนพวกเขาว่าเทคโนโลยีนี้อาจสร้างเนื้อหาและ/หรือข้อความที่เป็นเท็จหรือไม่เหมาะสมได้
 
ความแม่นยำของผลิตภัณฑ์และระบบ AI เชิงกำเนิดเป็นข้อกังวลต่อเนื่องมาเป็นเวลาหลายปี และผู้บริหารคนหนึ่งเตือนในที่ประชุมว่า AI "สามารถก่อเรื่องที่ไม่ดีได้" เช่น ใช้ภาษาที่เลวร้ายและมีความอคติ ตัวอย่างเช่น ในปี 2560 ไมโครซอฟต์เปิดตัวต้นแบบแชทบอท 'Tay' อันโด่งดัง ซึ่งพบว่ามันใช้ภาษาเหยียดเชื้อชาติและเกลียดชังชาวต่างชาติ ซึ่งแชทบอทนี้ได้ถูกลบในเวลาต่อมา
 
ตัวอย่างนี้เป็นปัจจัยสำคัญที่ทำให้ก่อนหน้านี้ Google ไม่เต็มใจที่จะแบ่งปันเทคโนโลยีของตน เนื่องจากบริษัทมีความกังวลมากขึ้นเรื่อยๆว่าต้นแบบ AI อาจเป็นอันตรายต่อผู้ใช้หรือสังคม อ้างอิงตามบันทึกภายใน อย่างไรก็ตาม ในการประชุมเมื่อเร็วๆนี้ ผู้บริหารคนหนึ่งเตือนว่าองค์กรขนาดเล็กมี “ความกังวลเล็กน้อย” เกี่ยวกับการเผยแพร่เครื่องมือดังกล่าวเช่นกัน
 
สิ่งนี้นำเสนอการตัดสินใจเดิมพันสูงของ Google; การใช้ประโยชน์จากแนวโน้มปัจจุบันและเริ่มปล่อยตัวต้นแบบ หรือเสี่ยงที่จะถูกทิ้งไว้ข้างหลังโดยอุตสาหกรรมที่กำลังพัฒนาอย่างรวดเร็ว

ที่มา: 
https://bit.ly/3XS8PNY
ควิกเซิร์ฟ
สินค้า
งานระบบ
บริการ
กิจกรรม
ออนไลน์