Atgal

Apie neseniai paskelbtą WWDC24 - Siri su Apple Intelligence

By Sean Chen, 2024 m. birželio 11 d.

wwdc24

Apple ką tik pristatė naujausią Apple Intelligence, kurio funkcijos apima rašymą, kalbos vertimą į tekstą ir santraukas, išmanųjį atsakymą, rašymo įrankius, vaizdų ar emocijų generavimą ir kt., o svarbiausia, kad Siri tampa tikru balso asistentu.

Pristatant pirmuosius įrankius, iš pirmo žvilgsnio atrodo, kad Apple vėl naudoja „išspaudimo“ strategiją, pristatydama funkcijas, kurios jau seniai yra Android platformoje.

Tačiau pamačius naujos kartos Siri, galima pajusti Apple stiprią produktų dizaino ir integracijos galią.

Ne tik kaip buvo spėta - naudojant GPT-4o

Pagal šį kartą pristatytą Keynote ir oficialią svetainę, atrodo, kad Apple Intelligence modelis nėra tik GPT-4o naudojimas. Remiantis A17 Pro ir M serijos įrenginiais, atrodo, kad Apple įrenginiuose įdiegė mažus kalbos modelius arba specializuotus vaizdų generavimo modelius. Taip pat naudojama naujausia Private Cloud Compute technologija, kuri užtikrina privatumą, leidžiant Apple Intelligence ar Siri naudoti debesų didelius kalbos modelius.

Atrodo, kad šis generatyvinis kalbos modelis yra specialiai apmokytas dažniausiai naudojamoms situacijoms telefone. Bendradarbiaujant su OpenAI, GPT-4o modelis naudojamas tik sudėtingesnėms situacijoms, pavyzdžiui, sudėtingų logikos klausimų uždavimui. Tai leidžia Siri AI labiau susitelkti į „Apple produktų naudojimo patirties“ gerinimą, todėl modelis tampa labiau specializuotas ir lengvesnis. Skirtingų paslaugų derinimas sumažina Apple spaudimą konkuruoti su GenAI, taip pat tiesiogiai susiduria su Microsoft Copilot, kuris OS integruoja GenAI Chatbot funkciją.

Kalbant apie didelių kalbos modelių kūrimą, Apple tikslas atrodo ne siekti įvairių LLM Benchmark, bet grįžti prie produkto esmės, kad LLM tarnautų produktui, o ne vien tik siekti LLM našumo ir multimodalinių galimybių.

Tačiau iki 2024 metų pabaigos matysime tik anglų kalbą palaikančią AI Siri, o kiti seni įrenginiai ar ne anglų kalbos vartotojai, atrodo, vis dar galės naudoti senąją Siri be LLM palaikymo. Kalbant apie didelių kalbos modelių lenktynes, Apple vis dar atsilieka nuo pagrindinių žaidėjų, tokių kaip OpenAI, Microsoft ar Google, ir atrodo, kad kitų kalbų palaikymas (arba tikslumo pasiekimas kitomis kalbomis) dar turi nueiti ilgą kelią.

Tačiau apskritai „naudojimo patirties“ srityje vis tiek bus pirmaujanti.

Nuo „ChatBot“ iki „ChatBot+“ iki „Patirties“

Kalbant apie dabartinius kitus LLM rinkos pagrindinius žaidėjus: OpenAI ChatGPT lieka „ChatBot“ lygyje, norint išeiti iš ChatGPT, šiuo metu galima tik parduodant API kūrėjams integracijai. Google Gemeni ir Microsoft PC Copilot šiuo metu taip pat yra „ChatBot+“ lygyje, tai yra, ChatBot su papildoma išorinių funkcijų integracija, tačiau vis tiek yra rinkoje labiausiai tikėtini žaidėjai, galintys pasiekti LLM gilios integracijos. Kiti didieji technikos gamintojai, tokie kaip Samsung ir Asus, atrodo, vis dar yra „funkcijų“ etape, pavyzdžiui, vaizdų paieška, realaus laiko vertimas, AI redagavimas ar vaizdų paieška.

Kalbant apie Apple Intelligence, atrodo, kad LLM paslaugos jau pakilo iki „patirties“ lygio, leidžiant AI tapti tikrai „relevant“ (svarbiu), esant „relevant“ sąlygoms, vartotojai gali naudoti situacijų ar funkcijų skaičių, kuris žymiai padidės, netgi artės prie begalybės, ir tik tada galima tikrai įgyvendinti AI asistento idealą. Apibendrinant, stiprioje Apple ekosistemoje, kiti kalbos modeliai, kad ir kokie stiprūs būtų, sunkiai galės konkuruoti su Apple „leidžiant LLM giliai integruotis į vartotojų gyvenimą“ konkurencingumu, taip pat tikimasi, kad ateityje visi LLM galės giliau integruotis į vartotojų gyvenimo situacijas.

DAUGIAU IŠ MŪSŲ TINKLARAŠČIO

Susisiekite

SUSISIEKITE

Pasikalbėkime apie jūsų idėjas!

Pradėkite savo verslą su inovatyviu skaitmeniniu partneriu. Atsakysime per vieną darbo dieną. (GMT+8)