Auf der WWDC 2025 präsentiert Apple zahlreiche neue KI-Funktionen für iPhone und Co. – doch die größte Erwartung bleibt unerfüllt.
Apple hat auf seiner Entwicklerkonferenz WWDC 2025 deutlich gemacht, dass künstliche Intelligenz künftig zum festen Bestandteil des Apple-Ökosystems gehört – nur eben leiser als im Vorjahr. Statt bombastischer KI-Revolution gab es ein fein abgestimmtes Update-Feuerwerk, das sich vor allem um praktische Funktionen drehte, eingebettet in das neue Designkonzept "Liquid Glass" und iOS 26. Auffällig: Siri bleibt auf der Strecke.
Bildanalyse in Echtzeit
Mit Visual Intelligence erhält das iPhone die Fähigkeit, seine Umgebung zu erkennen und zu analysieren. Pflanzen, Kleidung, Restaurants – alles wird auf Wunsch identifiziert. Neu ist die Möglichkeit, direkt aus Apps heraus Bildsuchen zu starten, etwa auf Basis eines Fotos in Social Media. Dabei nutzt Apple unter anderem Google und ChatGPT. Aktiviert wird das Ganze über das Kontrollzentrum oder die Aktionstaste.
Bildgenerator mit ChatGPT
Image Playground, Apples Tool zur Bildgenerierung, kann jetzt durch Integration von ChatGPT Bilder in diversen Stilrichtungen erstellen – von Aquarell bis Anime. Per Texteingabe lassen sich Prompts formulieren, die direkt vom Sprachmodell in Visuals verwandelt werden.
Virtueller Fitnesstrainer
Mit Workout Buddy bringt Apple eine KI-Stimme ins Training. Während des Laufs motiviert der Assistent, gibt Live-Feedback zur Leistung und fasst am Ende die wichtigsten Daten zusammen: Tempo, Herzfrequenz und persönliche Erfolge.
Live-Übersetzung in Echtzeit
Ein echtes Highlight ist die KI-gestützte Übersetzung in FaceTime, Telefonaten und Nachrichten. In Videoanrufen erscheinen Untertitel, bei Telefonaten wird simultan gesprochen. So überwindet Apple die Sprachbarriere – in Echtzeit.
Telefonieren mit KI-Wächter
Zwei neue Telefonfunktionen nutzen künstliche Intelligenz: Call Screening beantwortet Anrufe von Unbekannten im Hintergrund und gibt Informationen über Anrufer und Anliegen preis. Hold Assist erkennt automatisch Warteschleifen-Musik und benachrichtigt, sobald ein Agent erreichbar ist – während man das iPhone anderweitig nutzt.
KI im Alltag: Umfragen, Shortcuts, Spotlight
Dank Apple Intelligence können Nutzer nun Umfragen in Nachrichten starten – inklusive intelligenter Vorschläge je nach Gesprächsverlauf. Auch die Shortcuts-App erhält ein KI-Upgrade für automatisierte Zusammenfassungen. Spotlightwiederum wird kontextsensitiver und schlägt nun präziser passende Aktionen vor.
Foundation Models für Entwickler – Siri muss warten
Apple öffnet seine KI-Modelle über das Foundation Models Framework für Drittentwickler – auch offline. Ziel: mehr Innovation im App-Ökosystem. Der große Wermutstropfen: Die überarbeitete Siri, eigentlich das Flaggschiff der KI-Offensive, ist nicht fertig. Die Präsentation wird auf 2026 verschoben – ein stilles Eingeständnis, dass Apple bei Sprachassistenten hinterherhinkt.