OpenAI veröffentlicht eine Datei Ha– Eine geniale Sprachassistentenfunktion, die Ihre Mimik lesen und gesprochene Sprache in Echtzeit übersetzen kann – und das hoffentlich alles, ohne preiszugeben, was Sie an dem Film lieben.
Während einer Live-Demo am Montag versammelten sich OpenAI-Ingenieure und CTO Mira Murati am Telefon, um die neuen Funktionen zu demonstrieren. Sie ermutigten den Assistenten, beim Verfassen einer Gutenachtgeschichte ausdrucksvoller zu sein, forderten ihn dann plötzlich auf, zu einer Roboterstimme zu wechseln, bevor sie ihn schließlich baten, die Geschichte mit einer Singstimme zu beenden. Später baten sie den Assistenten, sich anzusehen, was die Kamera des Telefons sah, und es auf das reagieren zu lassen, was auf dem Bildschirm erschien. Der Assistent war außerdem in der Lage, während des Sprechens zu unterbrechen und ohne ständige Aufforderung zu antworten, während er als Übersetzer fungierte.
Die stimmliche Reaktion des Assistenten hatte eine verblüffende Ähnlichkeit mit der Figur, die Scarlett Johansson im Film spielte. HaWo ein Mann eine Beziehung mit einem fortschrittlichen Assistenten für künstliche Intelligenz aufbaut. Nach der Veranstaltung sagte Sam Altman, CEO von OpenAI, kryptisch veröffentlichen Nur ein Wort auf X: „it“. Das hat er auch Ich habe es ausgedrückt Welche Ha Es ist sein Lieblingsfilm. Der Film untersucht Themen wie Einsamkeit und Beziehungen zwischen Menschen und künstlicher Intelligenz. Es scheint unwahrscheinlich, dass Regisseur Spike Jonze beabsichtigte, dass die Welt dieses Gefühl der roboterhaften Isolation genau wiedergibt.
In einem Presseinterview mit die KanteMoratti sagte, der Assistent sei eigentlich nicht darauf ausgelegt, wie Johansson zu klingen, und betonte, dass OpenAI diese Stimmen schon seit einiger Zeit habe. „Eine Zuschauerin stellte mir genau die gleiche Frage und sagte dann: ‚Oh, vielleicht erkenne ich sie von ChatGPT nicht, weil der Ton viel Charakter und Ton hat‘“, sagte Moratti.
Diese Funktionen stellen eine bedeutende Verbesserung gegenüber dem bestehenden Sprachmodus von ChatGPT dar, der mit einem Benutzer chatten kann, jedoch mit sehr begrenzter Interaktion; Die aktuelle Version kann beispielsweise nicht unterbrochen werden oder auf das reagieren, was die Kamera sieht. Die neuen Funktionen werden in den „kommenden Wochen“ in einer begrenzten „Alpha“-Version veröffentlicht und stehen zunächst ChatGPT Plus-Abonnenten zur Verfügung, sobald die breitere Einführung beginnt.
Der neue Sprachassistent folgt auf a Bloomberg ein Bericht Darin wird behauptet, dass OpenAI kurz vor einem Deal mit Apple steht, um ChatGPT auf das iPhone zu bringen. (Auf Nachfrage auf der Pressekonferenz sagte Moratti: „Wir haben über keine der Partnerschaften gesprochen.“) Der Sprachassistentin des iPhones, Siri, sei nicht vertrauenswürdig HaEs sieht so aus, als ob ein iPhone-inspirierter Assistent, der tatsächlich in der Lage sein könnte, Ihre Fragen zu beantworten, anstatt „im Internet zu suchen“, das Ziel ist.
„Der neue Audio- (und Video-)Modus ist die beste Computerschnittstelle, die ich je verwendet habe. Es kommt mir immer noch ein wenig überraschend vor, dass es real ist“, sagte Altman in einem Interview. Blogeintrag Unmittelbar nach der Live-Übertragung. „Das Erreichen von Reaktionszeiten und Ausdrucksformen auf menschlicher Ebene stellt eine große Veränderung dar.“
„Hipsterfreundlicher Entdecker. Preisgekrönter Kaffeefan. Analyst. Problemlöser. Störenfried.“
More Stories
Dieses 100-W-GaN-Ladegerät ist dünn und faltbar
Kuo: Das RAM-Upgrade auf 12 GB im nächsten Jahr wird auf das iPhone 17 Pro Max beschränkt sein
Verdansk kehrt endlich zu Call of Duty Warzone zurück und die Fans freuen sich darüber