Back

Ein Blick auf die kürzlich vorgestellte WWDC24 - Siri mit Apple Intelligence

By Sean Chen, 11. Juni 2024

wwdc24

Apple hat gerade die neueste Apple Intelligence vorgestellt, die Funktionen wie Schreiben, Sprach-zu-Text-Umwandlung, Zusammenfassungen, intelligente Antworten, Schreibwerkzeuge, Bild- oder Emoji-Generierung umfasst. Am wichtigsten ist, dass Siri dadurch zu einem echten Sprachassistenten wird.

Beim ersten Blick auf die vorgestellten Tools könnte man meinen, Apple präsentiere erneut Funktionen, die Android schon lange hat und die kaum beeindrucken.

Doch beim Anblick der nächsten Generation von Siri wird Apples starke Design- und Integrationsfähigkeit deutlich.

Nicht nur auf GPT-4o basierend

Aus der Keynote und den Informationen auf der offiziellen Website geht hervor, dass Apple Intelligence nicht nur auf GPT-4o basiert, wie ursprünglich vermutet. Die unterstützten Geräte wie A17 Pro und M-Serie-Hardware deuten darauf hin, dass Apple kleine Sprachmodelle oder spezialisierte Bildgenerierungsmodelle direkt auf den Geräten integriert hat. Gleichzeitig nutzt Apple die neueste Private Cloud Compute-Technologie, um Apple Intelligence oder Siri unter Wahrung der Privatsphäre mit großen Sprachmodellen aus der Cloud zu betreiben.

Es scheint, dass das generative Sprachmodell von Apple speziell für häufige Nutzungsszenarien auf Mobilgeräten trainiert wurde. Das mit OpenAI entwickelte GPT-4o-Modell wird nur in fortgeschritteneren Szenarien eingesetzt, wie z.B. bei komplexen logischen Fragen. Dies ermöglicht es der KI hinter Siri, sich stärker auf die Verbesserung der „Apple-Produkterfahrung“ zu konzentrieren, was das Modell fokussierter und leichter macht. Die Kombination verschiedener Dienste reduziert den Druck auf Apple, mit GenAI Schritt zu halten, und stellt sich gleichzeitig der Konkurrenz von Microsoft Copilot, das GenAI-Chatbots direkt in das Betriebssystem integriert.

Auf dem Weg zur Entwicklung großer Sprachmodelle scheint Apple nicht darauf abzuzielen, verschiedene LLM-Benchmarks zu verfolgen, sondern sich auf das Produkt selbst zu konzentrieren, sodass LLM dem Produkt dient und nicht nur die Leistung und multimodalen Fähigkeiten von LLM verfolgt werden.

Bis Ende 2024 wird jedoch nur die englischsprachige AI Siri verfügbar sein. Ältere Geräte oder nicht-englischsprachige Nutzer müssen weiterhin die ältere Version von Siri ohne LLM-Unterstützung verwenden. In Bezug auf das Rennen um große Sprachmodelle liegt Apple hinter den Hauptakteuren wie OpenAI, Microsoft oder Google zurück, und es scheint noch ein weiter Weg zu sein, bis andere Sprachen unterstützt werden oder deren Genauigkeit erreicht wird.

Insgesamt wird Apple jedoch in Bezug auf die „Nutzererfahrung“ weiterhin führend sein.

Von „ChatBot“ zu „ChatBot+“ zu „Erlebnis“

Bei den Hauptakteuren auf dem LLM-Markt: OpenAIs ChatGPT bleibt auf der „ChatBot“-Ebene und kann sich nur durch den Verkauf von APIs an Entwickler für Integrationen weiterentwickeln. Googles Gemeni und Microsofts Copilot auf dem PC befinden sich derzeit ebenfalls auf der „ChatBot+“-Ebene, was bedeutet, dass der ChatBot um einige externe Funktionen erweitert wurde, aber sie sind immer noch die wahrscheinlichsten Kandidaten für eine tiefere LLM-Integration. Andere große Hardwarehersteller wie Samsung und Asus scheinen mit ihren KI-Fähigkeiten noch auf der „Funktionalitäts“-Ebene zu verharren, z.B. bei Bildersuche, Echtzeitübersetzung, KI-Bildbearbeitung oder Bildersuche.

Mit Apple Intelligence scheint Apple LLM-Dienste auf die „Erlebnis“-Ebene gehoben zu haben, was bedeutet, dass KI wirklich „relevant“ wird. Unter der Voraussetzung, dass „Relevanz“ erreicht wird, wird die Anzahl der Nutzungsszenarien oder Funktionen, die Nutzer verwenden können, erheblich steigen, möglicherweise sogar unbegrenzt, was das Ideal eines KI-Assistenten wirklich verwirklichen kann. Zusammenfassend lässt sich sagen, dass es unter dem starken Apple-Ökosystem für andere Sprachmodelle schwierig sein wird, Apples „tiefgreifende Integration von LLM in das Nutzerleben“ zu übertreffen. Wir hoffen, dass in Zukunft alle LLMs tiefer in die Lebensszenarien der Nutzer integriert werden können.

MORE FROM OUR BLOG

Contact Us

CONTACT US

Let's talk about your ideas!

Jump-start your business with your innovated digital partner. We will reply within one business day. (GMT+8)