Apple Inc (NASDAQ:AAPL). arbeitet intensiv an einer verbesserten Version von Siri, die natürlichere, konversationsähnliche Interaktionen ermöglichen soll – vergleichbar mit den Fähigkeiten von OpenAIs ChatGPT. Dies berichtet Bloomberg News. Das noch geheime Projekt zielt darauf ab, fortschrittliche Large Language Models (LLMs) zu implementieren, um dynamische Dialoge zu ermöglichen. Die überarbeitete Siri soll komplexe Anfragen schneller verarbeiten können und ist Teil von Apples umfassenderem Bestreben, seine Position im Bereich der künstlichen Intelligenz (KI) zu stärken.
Im vergangenen Monat stellte Apple seine Apple Intelligence-Plattform vor. Trotz des großen Aufsehens hinkt diese in puncto Funktionalität noch hinter den Angeboten anderer Tech-Giganten hinterher. Der fortschrittliche Sprachassistent, intern als "LLM Siri" bezeichnet, soll in die Apple Intelligence-Suite integriert werden. LLMs, die Grundlage für generative KI, analysieren riesige Datensätze, um Muster zu erkennen und Fragen zu beantworten.
Apple testet die aktualisierte Siri-Software derzeit auf verschiedenen Geräten, darunter iPhones, iPads und Macs, mittels einer eigenständigen App. Diese Technologie soll letztendlich die bestehende Siri-Schnittstelle ersetzen. Pläne deuten darauf hin, dass Apple das überarbeitete System im Rahmen der iOS 19- und macOS 16-Updates, mit den Codenamen Luck und Cheer, bereits 2025 vorstellen könnte.
Die neue Siri wird nicht mit der Hardware-Reihe des nächsten Jahres debütieren, sondern voraussichtlich im Frühjahr 2026 für Verbraucher verfügbar sein. Allerdings können sich die Details bezüglich des Einführungszeitplans und der Funktionen noch ändern, da die Ankündigung noch mehrere Monate entfernt ist.
Ein Sprecher von Apple lehnte eine Stellungnahme zu den Entwicklungen ab.
Die nächste Iteration von Siri wird neue Apple-KI-Modelle nutzen, um eine menschenähnlichere Interaktion und Aufgabenverwaltung zu ermöglichen, vergleichbar mit ChatGPT und Googles Gemini. Sie wird auch die Nutzung von App Intents für eine differenziertere Steuerung von Drittanbieter-Apps erweitern und Funktionen von Apple Intelligence, wie Texterstellung und Zusammenfassung, integrieren.
Obwohl Apple seine KI-Plattform im Juni als Beginn einer neuen Siri-Ära präsentierte, waren die anfänglichen Updates größtenteils kosmetischer Natur. Dazu gehörten eine neue Benutzeroberfläche und die Möglichkeit, Befehle auch per Tastatur einzugeben. Das kommende iOS 18 wird weitere Verbesserungen bringen, die es Siri ermöglichen, Kundendaten für kontextbezogene Befehlsantworten zu nutzen und zu entscheiden, ob Anfragen vom bestehenden Siri-System oder einem sekundären LLM für komplexere Aufgaben verarbeitet werden sollen.
Das nächste LLM in iOS 19 wird ein vollständiges System mit fortschrittlichen, ChatGPT-ähnlichen Funktionen etablieren. In der Zwischenzeit plant Apple, ChatGPT nächsten Monat in Apple Intelligence zu integrieren und später zusätzliche Chatbot-Optionen wie Gemini anzubieten. Das Ziel für die neue Siri ist es, diese Fähigkeiten intern zu integrieren und dabei die Privatsphäre der Nutzer zu priorisieren. Dennoch könnte Apple weiterhin KI-Systeme von Drittanbietern für spezielle Funktionen anbieten.
Jüngste Stellenausschreibungen von Apple deuten auf einen verstärkten Fokus auf die Entwicklung eines konversationsfähigeren Siri hin. Diese Anzeigen weisen auf die Suche nach Expertise in konversationellen KI-Schnittstellen hin, was Apples langjähriges Bestreben widerspiegelt, Siris interaktive Fähigkeiten zu verbessern. Das Siri-Interaktionsteam, das nun unter der Leitung von Alan Dye, Apples Vizepräsident für Human Interface Design, steht, wurde von der KI-Abteilung in die Gruppe für Software-Schnittstellen verlegt, um diese Bemühungen voranzutreiben.
Diese Übersetzung wurde mithilfe künstlicher Intelligenz erstellt. Weitere Informationen entnehmen Sie bitte unseren Nutzungsbedingungen.