By Sean Chen, 11 มิถุนายน 2024
Apple เพิ่งเปิดตัว Apple Intelligence ล่าสุด ซึ่งมีฟีเจอร์การเขียน, การแปลงเสียงเป็นข้อความและสรุป, การตอบกลับอัจฉริยะ, เครื่องมือการเขียน, การสร้างภาพหรืออีโมจิ และที่สำคัญที่สุดคือทำให้ Siri ใกล้เคียงกับการเป็นผู้ช่วยเสียงจริงๆ มากขึ้น
ในขณะที่แนะนำเครื่องมือไม่กี่อย่างแรก ดูเหมือนว่า Apple จะใช้วิธีการเดิมๆ ในการแนะนำฟีเจอร์ที่ Android มีมานานแล้ว
แต่เมื่อเห็น Siri รุ่นถัดไป จะรู้สึกถึงความสามารถในการออกแบบและการรวมผลิตภัณฑ์ของ Apple ที่แข็งแกร่ง
จาก Keynote และข้อมูลบนเว็บไซต์ ไม่ได้ใช้ GPT-4o เป็นโมเดลของ Apple Intelligence อย่างที่คาดการณ์ไว้ จากอุปกรณ์ที่ใช้ได้ A17 Pro และฮาร์ดแวร์ M Series ดูเหมือนว่า Apple ใส่โมเดลภาษาขนาดเล็กหรือโมเดลการสร้างภาพเฉพาะในอุปกรณ์ และใช้เทคโนโลยี Private Cloud Compute ล่าสุดเพื่อให้ Apple Intelligence หรือ Siri ใช้โมเดลภาษาขนาดใหญ่บนคลาวด์ภายใต้เงื่อนไขการรักษาความเป็นส่วนตัว
ดูเหมือนว่าโมเดลภาษาที่สร้างขึ้นในครั้งนี้เป็นโมเดลใหม่ที่ Apple ฝึกฝนเฉพาะสำหรับสถานการณ์ที่ใช้บ่อยในมือถือ และโมเดล GPT-4o ที่ร่วมมือกับ OpenAI ใช้ในสถานการณ์ที่ซับซ้อนมากขึ้น เช่น การถามคำถามเชิงตรรกะที่ซับซ้อน ซึ่งทำให้ AI ที่อยู่เบื้องหลัง Siri มุ่งเน้นไปที่การปรับปรุง "ประสบการณ์การใช้ผลิตภัณฑ์ Apple" ทำให้โมเดลนี้มุ่งเน้นและเบาลง การผสมผสานบริการต่างๆ ช่วยลดแรงกดดันของ Apple ในการตาม GenAI และยังเผชิญหน้ากับ Microsoft Copilot ที่รวมฟังก์ชัน GenAI Chatbot ใน OS โดยตรง
ในเส้นทางการพัฒนาโมเดลภาษาขนาดใหญ่ Apple ดูเหมือนจะไม่มุ่งเน้นไปที่การไล่ตาม LLM Benchmark ต่างๆ แต่กลับมุ่งเน้นที่ผลิตภัณฑ์เอง ทำให้บริการ LLM เป็นผลิตภัณฑ์ ไม่ใช่แค่การไล่ตามประสิทธิภาพและความสามารถหลายโหมดของ LLM
อย่างไรก็ตาม ก่อนสิ้นปี 2024 จะเห็น AI Siri ที่รองรับภาษาอังกฤษเท่านั้น อุปกรณ์รุ่นเก่าหรือผู้ใช้ที่ไม่ใช่ภาษาอังกฤษดูเหมือนจะยังคงใช้ Siri รุ่นเก่าที่ไม่รองรับ LLM ซึ่งในแง่ของการแข่งขันโมเดลภาษาขนาดใหญ่ Apple ยังล้าหลังเป้าหมายหลักเช่น OpenAI, Microsoft หรือ Google และดูเหมือนว่าจะยังมีระยะทางในการรองรับภาษาอื่นๆ (หรือทำให้ความแม่นยำของภาษาอื่นๆ ถึงมาตรฐาน)
แต่โดยรวมแล้ว ในแง่ของ "ประสบการณ์การใช้" ยังคงนำหน้าคู่แข่งในปัจจุบัน
ในตลาด LLM ปัจจุบัน ผู้เล่นหลัก: ChatGPT ของ OpenAI ยังคงอยู่ในระดับ "ChatBot" ซึ่งต้องพึ่งพาการขาย API ให้กับนักพัฒนาเพื่อทำการรวม Google Gemeni และ Copilot บน PC ของ Microsoft ยังอยู่ในระดับ "ChatBot+" ซึ่งเป็นการรวมฟังก์ชันภายนอกเพิ่มเติม แต่ยังคงเป็นผู้เล่นที่มีโอกาสมากที่สุดในการรวม LLM อย่างลึกซึ้ง ผู้ผลิตฮาร์ดแวร์รายอื่นเช่น Samsung และ ASUS ความสามารถ AI ดูเหมือนจะยังคงอยู่ในขั้น "ฟังก์ชัน" เช่น การค้นหาภาพ, การแปลทันที, การแก้ไขภาพ AI หรือการค้นหาภาพ
สำหรับ Apple Intelligence ของ Apple ดูเหมือนว่าจะยกระดับบริการ LLM ไปสู่ระดับ "ประสบการณ์" ทำให้ AI ทำงานได้อย่าง "เกี่ยวข้อง" (relavent) ภายใต้เงื่อนไขที่ทำให้ "เกี่ยวข้อง" ผู้ใช้สามารถใช้สถานการณ์หรือฟังก์ชันได้มากขึ้นอย่างมาก จนเกือบจะไม่มีที่สิ้นสุด และสามารถทำให้ความฝันของ AI ผู้ช่วยเป็นจริงได้ สรุปแล้ว ภายใต้ระบบนิเวศที่แข็งแกร่งของ Apple โมเดลภาษาของผู้อื่นแม้จะแข็งแกร่งก็ยากที่จะสั่นคลอนความสามารถในการแข่งขันของ Apple ในการ "รวม LLM เข้ากับชีวิตผู้ใช้" และหวังว่าในอนาคต LLM ของแต่ละบริษัทจะสามารถรวมเข้ากับสถานการณ์ชีวิตของผู้ใช้ได้อย่างลึกซึ้งยิ่งขึ้น
คำว่า 'URL' และ 'โดเมน' ดูคล้ายกันแต่ไม่เหมือนกัน! เมื่อคุณพิมพ์ google.com ในเบราว์เซอร์ เกิดอะไรขึ้นเบื้องหลัง? และสิ่งนี้เกี่ยวข้องกับโดเมนและ URL อย่างไร? บทความนี้จะอธิบายให้คุณเข้าใจอย่างชัดเจนและใช้งานได้จริง!
อ่านเพิ่มเติมถ้าคุณเป็นคนที่จำไม่ได้ว่าใช้เงินไปเท่าไหร่ตอนเดินทางต่างประเทศ และขี้เกียจพิมพ์บันทึกค่าใช้จ่าย ต้องลองใช้แอปสุดเจ๋งนี้ — 'พูดพูดบันทึก'
อ่านเพิ่มเติมการสั่งอาหารด้วยตนเองกลายเป็นก้าวแรกเมื่อเราเข้าสู่ร้านอาหาร และยังเป็นส่วนสำคัญของประสบการณ์การรับประทานอาหารของเรา หากเพิ่มองค์ประกอบที่น่าสนใจ เช่น ผู้ช่วยเสียง AI การสั่งอาหารอาจกลายเป็นเรื่องที่เข้าใจง่าย สนุกสนาน และมีความเป็นมนุษย์มากขึ้น!
อ่านเพิ่มเติมติดต่อเรา
มาคุยเกี่ยวกับไอเดียของคุณกันเถอะ!
เริ่มต้นธุรกิจของคุณกับพาร์ทเนอร์ดิจิทัลที่สร้างสรรค์ เราจะตอบกลับภายใน 1 วันทำการ (GMT+8)