Das Leuchten muss noch etwas warten: Wortspielfreudig wie immer stellte Apple seine jährliche Produktvorstellung in diesem Jahr unter das Motto "It's Glowtime". Es war eine Anspielung auf das Schimmern, das iPhones künftig anzeigen, wenn man die aufgemöbelte KI-Siri startet. Die war schon im Juni auf der Entwicklerkonferenz WWDC angekündigt worden. Und da im September üblicherweise die neuen Smartphones im Zentrum stehen, durfte man das im Voraus lesen als: Achtung, hier kommen die KI-iPhones.

Am Montag wurden sie nun in Cupertino vorgestellt. Und sie schimmern wirklich. Doch als Apples Softwarechef Craig Federighi, der Mann mit den ikonisch weißen Haaren, die Funktionen vorstellte, da war für den Apple-Fan vor allem: fast alles schon bekannt. Kein offensichtliches Killerfeature, kein One-more-thing-Moment: Die große KI-Show sind die neuen iPhones (noch) nicht.

Die Technologie, die mal weltverändernd sein soll

Eigentlich folgt die iPhone-Präsentation seit Jahren eingeübten Regeln: Medienvertreter und Influencerinnen werden im September nach Cupertino zu einem "Special Event" eingeladen, dessen Inhalt unausgesprochen bleibt, aber ausgesprochen klar ist. Dann kommt im Steve Jobs Theatre im Apple Park Firmenchef Tim Cook auf die Bühne, sagt ein paar warme Worte, und die Keynote – seit ein paar Jahren ein vorproduziertes Hochglanzvideo – startet. Darin werden die iPhones des jeweiligen Jahres gezeigt, mal auch weitere Geräte, deren Features weitgehend bekannt sind, durch Leaker und eine sich ihrer Dienste gern bedienende Gerüchtejournalismusindustrie. Manchmal, aber selten kommt ein "one more thing". Knapp zwei Wochen später gehen die Geräte in den Handel, Haken dahinter, nächstes Gerät.

Dieses Jahr stimmt das größtenteils, aber nicht ganz – und das liegt an künstlicher Intelligenz. Spätestens seitdem ChatGPT im November vor zwei Jahren veröffentlicht wurde, haben sich die großen Techunternehmen in ein KI-Rennen begeben, bei dem sie die Vorherrschaft über einen Bereich gewinnen wollen, der irgendwann mal weltverändernd werden soll. Microsoft investierte Milliarden in die ChatGPT-Firma OpenAI, Facebook-Mutter Meta veröffentlichte sein Sprachmodell LLaMA und Google brachte mit Gemini KI-Funktionen auf Android-Handys.

Apple aber machte lange: wenig. Das Unternehmen schien sich dem Trend nahezu verweigern zu wollen, sprach noch von Machine Learning, als andere längst überall KI draufklebten. Der erfolgsverwöhnte iPhone-Konzern galt als abgeschlagen im KI-Rennen. Erst im Juni dieses Jahres, mehr als anderthalb Jahre nach der ChatGPT-Vorstellung, auf der WWDC, stellte das Unternehmen dann seine Vision einer "Apple Intelligence" vor, eines systemübergreifenden KI-Assistenten für iPhones, iPads und Macs.

Apple zeigte im Juni, wie man die KI Texte umschreiben und Korrektur lesen lassen kann, wie sie Grafiken und neue Emojis generieren kann, wie sie Bilder in den Untiefen der Fotomediathek nur durch eine Beschreibung der Bildinhalte findet, störende Objekte entfernt und mehrere Fotos zu einem Erinnerungsvideo verbindet, wie sie E-Mails zusammenfasst und Benachrichtigungen nach Wichtigkeit sortiert. Die Sprachassistentin Siri soll ein Update bekommen und nun schlauer sein, etwa Nutzer auch bei Versprechern verstehen, Systemfunktionen erläutern, sich auf Kalenderdaten oder E-Mails rückbeziehen können und Fragen beantworten, die sich auf das beziehen, was gerade auf dem Bildschirm zu sehen ist. Apples Softwarechef Federighi stellte die Funktionen am Montagabend einfach noch einmal vor. Wirkte alt, war aber wohl sinnvoll, schließlich dürfte sich nicht jeder iPhone-Käufer auch für die Entwicklerkonferenz interessieren.

Immerhin eine neue KI-Funktion präsentierte Federighi zusätzlich: Die visual intelligence, sie ähnelt der Google-Lens-App auf iOS und Android. Das Feature soll die Kamera schlau machen: Richtet man sie etwa auf ein Konzertplakat, bietet visuelle Intelligenz an, einen Kalendereintrag zu erstellen. Bei einem Restaurant zeigt es Bewertungen und Öffnungszeiten und bei einem Hund erklärt es die Rasse. Außerdem können Bilder auf Wunsch an Dienste wie ChatGPT oder Google weitergegeben werden – dann ist es wirklich wie Google Lens. Während alle weiteren KI-Features auch auf das iPhone 15 Pro und Pro Max aus dem vergangenen Jahr kommen sollen, ist diese Funktion exklusiv für das iPhone 16 gedacht. Aktiviert wird sie dort mit dem neuen Kameraknopf (Erfahrung vom ersten Ausprobieren: bloß nicht "Auslöser" sagen! Apple nennt den Knopf "Kamerasteuerung").

Ausgerechnet auf die KI-Features müssen die Nutzer warten

Klingt gut – nur: Wenn die vier neuen iPhone-Modelle Ende kommender Woche in den Verkauf gehen, wird darauf kein einziges dieser Features sein. Dass Apple einige Funktionen nachreicht, ist nicht vollkommen ungewöhnlich, dass es aber die Kernfunktionen seiner wichtigsten Gerätereihe spät und dann auch nur Stück für Stück herausbringt, ist es absolut.

Der Zeitplan, den Apple am Montag vorstellte, sieht so aus: Die ersten neuen Funktionen sollen mit iOS 18.1 im Oktober veröffentlicht werden, aber nur für Geräte, die auf US-amerikanisches Englisch eingestellt sind. Andere Englisch-Varietäten sollen im Dezember folgen – irgendwann im kommenden Jahr soll Apple Intelligence dann auch Chinesisch, Japanisch, Französisch und Spanisch sprechen. Die Features werden zunächst als Beta für die breite Masse veröffentlicht – das ist Apples übliche Art, sich vor größerer Kritik an noch etwas unfertigen Funktionen zu schützen. Siri etwa war ursprünglich zwei Jahre in der Beta. Für die Nutzer macht das im Alltag aber keinen Unterschied.

Im ersten Schwung veröffentlicht werden auf Englisch die KI-Schreibwerkzeuge, die verbesserte Suche nach Bildern, eine KI-Bildbearbeitung zum Entfernen störender Objekte (oder Menschen), die Transkription von Sprachmemos und Anrufen sowie die Priorisierung und Zusammenfassung von Benachrichtigungen und E-Mails. Dagegen werden erst "später in diesem Jahr und in den nächsten Monaten" die generativen Bild-KI-Funktionen wie der Dall-E ähnliche Image Playground, die Skizze-zu-Bild-Funktion Image Wand und die selbst erstellten Genmojis folgen. Auch Siris Bewusstsein wird erst später für den persönlichen Kontext und den Bildschirm des Nutzers geschärft werden, ebenso werden visuelle Intelligenz und die ChatGPT-Integration später folgen.

In Ausprobier-Sessions nach der Keynote in Cupertino zeigten Apple-Mitarbeiter die Funktionen, die im kommenden Monat veröffentlicht werden. Textzusammenfassungen und Bildbearbeitungen funktionierten schnell und zuverlässig, wie man das erwarten würde. Die für später angekündigten Features, auch die visuelle Intelligenz, wollte man den Medienvertreterinnen aber nicht zeigen.