Tilbake

Diskuterer den nylig lanserte WWDC24 - Siri med Apple Intelligence

By Sean Chen, 11. juni 2024

wwdc24

Apple har nettopp lansert den nyeste Apple Intelligence, med funksjoner som skriving, tale-til-tekst og oppsummering, smart svar, skriveverktøy, bilde- eller emoji-generering, og viktigst av alt, gjør Siri til en mer ekte stemmeassistent.


Ved første øyekast, når de introduserer de første verktøyene, ser det ut som om Apple igjen introduserer funksjoner som Android allerede har hatt.


Men når man ser den neste generasjonen av Siri, kan man virkelig føle Apples sterke design- og integrasjonsevner.


Ikke bare bruk av GPT-4o som spekulert

Basert på informasjonen fra den siste Keynote og Apples nettside, ser det ikke ut til at de bare bruker GPT-4o som modellen for Apple Intelligence. Med enheter som A17 Pro og M-serien, ser det ut til at Apple har integrert små språkmodeller eller spesifikke bildegenereringsmodeller i enhetene. Samtidig bruker de sin nyeste Private Cloud Compute-teknologi for å la Apple Intelligence eller Siri bruke skybaserte store språkmodeller, samtidig som de sikrer personvern.


Det ser ut til at denne generative språkmodellen er spesialtrent for vanlige scenarier på mobilen. GPT-4o-modellen, som samarbeider med OpenAI, brukes kun i mer avanserte scenarier, som å stille komplekse logiske spørsmål. Dette gjør at AI bak Siri kan fokusere mer på å forbedre "opplevelsen av å bruke Apple-produkter", noe som gjør modellen mer fokusert og lettere. Ved å blande ulike tjenester reduserer Apple presset med å følge GenAI, samtidig som de møter Microsoft Copilot som integrerer GenAI Chatbot direkte i OS.


På veien til å utvikle store språkmodeller ser det ut til at Apples mål ikke er å jage etter ulike LLM Benchmark, men å fokusere på selve produktet, slik at LLM tjener produktet, i stedet for å bare jage etter LLMs ytelse og multimodale evner.


Men innen utgangen av 2024 vil vi bare se AI Siri som støtter engelsk. Andre eldre enheter eller ikke-engelsktalende brukere ser ut til å måtte bruke den gamle versjonen av Siri uten LLM-støtte. Når det gjelder kappløpet om store språkmodeller, ligger Apple fortsatt bak hovedaktører som OpenAI, Microsoft eller Google, og det ser ut til å være et stykke igjen før de støtter andre språk (eller oppnår nøyaktighet for andre språk).


Men totalt sett vil de fortsatt lede i "brukeropplevelse" sammenlignet med nåværende konkurrenter.

Fra "ChatBot" til "ChatBot+" til "Opplevelse"

Med de nåværende hovedaktørene i LLM-markedet: OpenAIs ChatGPT er fortsatt på "ChatBot"-nivået, og for å gå videre må de selge API-er til utviklere for integrasjon. Googles Gemeni og Microsofts Copilot på PC er også på "ChatBot+"-nivået, som er ChatBot med litt mer ekstern funksjonsintegrasjon, men de er fortsatt de mest sannsynlige aktørene til å oppnå dyp LLM-integrasjon. Andre store maskinvareprodusenter som Samsung og Asus ser ut til å være på "funksjons"-stadiet, som bildesøk, sanntidsoversettelse, AI-redigering eller bildesøk.


Når det gjelder Apples Apple Intelligence, ser det ut til at de har løftet LLM-tjenester til "opplevelses"-nivået
, og lar AI bli virkelig "relevant". Når "relevant" er oppnådd, vil antallet scenarier eller funksjoner brukeren kan bruke øke betydelig, kanskje til og med nærme seg uendelig, og dermed virkelig realisere drømmen om en AI-assistent. Samlet sett, under den sterke Apple-økosystemet, vil det være vanskelig for andre språkmodeller å utfordre Apples konkurranseevne i "å integrere LLM dypt inn i brukerens liv", og vi ser frem til at andre LLM-er kan integreres dypere i brukerens livsscenarier i fremtiden.

MER FRA VÅR BLOGG

Kontakt oss

KONTAKT OSS

La oss snakke om dine ideer!

Kickstart virksomheten din med din innovative digitale partner. Vi svarer innen én virkedag. (GMT+8)