Am Ende der I/O, der jährlichen Entwicklerkonferenz von Google im Shoreline Amphitheatre in Mountain View, verriet Google-CEO Sundar Pichai, dass das Unternehmen 121 Mal „KI“ gesagt habe. Dies war im Wesentlichen der Kern der zweistündigen Keynote von Google – die Einführung von KI in alle Apps und Dienste von Google, die von mehr als zwei Milliarden Menschen auf der ganzen Welt genutzt werden. Hier finden Sie alle wichtigen Updates von Googles großem Event sowie einige zusätzliche Ankündigungen, die nach der Keynote erfolgten.
Gemini 1.5 Flash- und Gemini 1.5 Pro-Updates
Google hat ein völlig neues KI-Modell namens Gemini 1.5 Flash angekündigt, das seiner Meinung nach auf Geschwindigkeit und Effizienz optimiert ist. Der Flash liegt zwischen dem Gemini 1.5 Pro und dem Gemini 1.5 Nano, dem kleinsten Modell des Unternehmens, das nativ auf dem Gerät läuft. Google gab an, Flash entwickelt zu haben, weil die Entwickler ein leichteres, kostengünstigeres Modell als Gemini Pro für die Erstellung von KI-gestützten Apps und Diensten wollten und gleichzeitig einige Dinge wie ein Millionen Zeichen langes Kontextfenster beibehalten wollten, das Gemini Pro von Konkurrenzmodellen unterscheidet. Später in diesem Jahr wird Google das Gemini-Kontextfenster auf 2 Millionen Token verdoppeln, was bedeutet, dass es in einem Atemzug 2 Stunden Video, 22 Stunden Audio und mehr als 60.000 Zeilen Code oder mehr als 1,4 Millionen Wörter verarbeiten kann . die Zeit. .
Astra-Projekt
Google stellte Project Astra vor, eine frühe Version eines globalen KI-gestützten Assistenten, der laut Demis Hassabis, CEO von Googles DeepMind, Googles Version eines KI-Agenten ist, „der im Alltag nützlich sein könnte“.
In einem Video, das laut Google in einer einzigen Einstellung gefilmt wurde, bewegt sich ein Astra-Nutzer durch Googles Büro in London, hält sein Telefon in der Hand und richtet die Kamera auf verschiedene Dinge – einen Lautsprecher, einen Code auf einem Whiteboard, außerhalb eines Fensters – und führt eine natürliche Unterhaltung mit der App darüber, wie es aussieht. Und in einem der beeindruckendsten Momente des Videos teilt sie dem Benutzer korrekt mit, wo sie zuvor ihre Brille gelassen hat, ohne dass der Benutzer jemals ihre Brille abhebt.
Das Video endet mit einer Überraschung: Als der Benutzer die fehlende Brille findet und aufsetzt, erfahren wir, dass sie über ein eingebautes Kamerasystem verfügt und mithilfe von Project Astra nahtlos ein Gespräch mit dem Benutzer führen kann, was darauf hindeuten könnte Google arbeitet möglicherweise an einem Konkurrenten für Metas Ray-Ban-Smart-Brille.
Fragen Sie Google Bilder
Google Fotos war bereits intelligent, wenn es um die Suche nach bestimmten Fotos oder Videos ging, aber mit KI geht Google noch einen Schritt weiter. Wenn Sie Google One-Abonnent in den USA sind, können Sie Google Fotos eine komplexe Frage wie „Zeigen Sie mir das beste Foto aus jedem Nationalpark, den Sie besucht haben“ stellen, wenn die Funktion in den nächsten Jahren eingeführt wird Monate. Google Fotos verwendet GPS-Informationen sowie sein eigenes Urteil darüber, was „am besten“ ist, um Ihnen Optionen anzubieten. Sie können Google Fotos auch bitten, Bildunterschriften für die Veröffentlichung von Fotos in sozialen Medien zu erstellen.
Sehen und vorstellen 3
Die neuen KI-gestützten Medienerstellungs-Engines von Google heißen Veo und Imagine 3. Veo ist Googles Antwort auf Sora von OpenAI. Google sagte, es könne „hochwertige“ 1080p-Videos produzieren, die „länger als eine Minute“ dauern können, und filmische Konzepte wie Zeitraffer verstehen.
Mittlerweile ist Imagen 3 ein Text-zu-Bild-Generator, von dem Google behauptet, dass er Text besser verarbeitet als sein Vorgänger Imagen 2. Das Ergebnis ist das qualitativ hochwertigste Text-zu-Bild-Modell des Unternehmens mit einem „erstaunlichen Detaillierungsgrad“ für „realistisch“. , lebensechte Bilder.“ und weniger Artefakte – was es im Wesentlichen mit DALLE-3 von OpenAI konkurriert.
Große Updates für die Google-Suche
Google nimmt große Änderungen an der grundsätzlichen Funktionsweise der Suche vor. Die meisten der heute angekündigten Updates umfassen die Möglichkeit, wirklich komplexe Fragen zu stellen („Finden Sie die besten Yoga- oder Pilates-Studios in Boston und sehen Sie sich Details zu Angeboten und Gehzeiten von Beacon Hill an.“) und die Suche zum Planen von Mahlzeiten und Urlauben zu verwenden. Es ist nur verfügbar, wenn Sie sich bei Search Labs anmelden, der Plattform des Unternehmens, auf der Benutzer Betafunktionen ausprobieren können.
Aber die große neue Funktion, die Google AI Overviews nennt und die das Unternehmen nun seit einem Jahr testet, wird endlich für Millionen von Menschen in den USA eingeführt. Die Google-Suche zeigt nun standardmäßig KI-generierte Antworten oben in den Suchergebnissen an und das Unternehmen gibt bekannt, dass es die Funktion bis Ende des Jahres mehr als einer Milliarde Nutzern auf der ganzen Welt zur Verfügung stellen wird.
Zwillinge auf Android
Google integriert Gemini direkt in Android. Wenn später in diesem Jahr Android 15 veröffentlicht wird, wissen Gemini, welche App, welches Foto oder welches Video Sie gerade abspielen, und können es als Overlay ziehen und ihm kontextspezifische Fragen stellen. Wo bleibt Google Assistant, der dies bereits tut? Wen kennst du! Google hat dies in der heutigen Keynote überhaupt nicht zur Sprache gebracht.
Verbesserungen der Akkulaufzeit von WearOS 5
Google ist noch nicht ganz bereit, die neueste Version seines Smartwatch-Betriebssystems auf den Markt zu bringen, verspricht aber, wenn es soweit ist, einige deutliche Verbesserungen bei der Akkulaufzeit. Das Unternehmen gab an, dass Wear OS 5 20 Prozent weniger Strom verbraucht als Wear 4, wenn ein Benutzer einen Marathon läuft. Wear OS 4 brachte zwar Verbesserungen bei der Akkulaufzeit der Smartwatches, die es unterstützen, aber es könnte immer noch viel besser bei der Verwaltung der Geräteleistung sein. Google hat Entwicklern außerdem einen neuen Leitfaden zum Einsparen von Strom und Akku zur Verfügung gestellt, damit sie effizientere Anwendungen erstellen können.
Anti-Diebstahl-Funktionen von Android 15
Die Entwicklervorschau für Android 15 läuft zwar schon seit Monaten, aber es kommen noch weitere Features. Die Diebstahlerkennungssperre ist eine der neuen Funktionen von Android 15, die KI (hier ist sie noch einmal) nutzt, um Telefondiebstahl vorherzusagen und Dinge entsprechend zu sperren. Google gibt an, dass seine Algorithmen Bewegungen erkennen können, die mit Diebstahl in Zusammenhang stehen, etwa wenn man sich ein Telefon schnappt und weggeht, Fahrrad fährt oder wegfährt. Wenn ein Telefon mit Android 15 eine dieser Situationen auswählt, wird der Bildschirm des Telefons schnell gesperrt, was es einem Telefonentführer erschwert, auf Ihre Daten zuzugreifen.
Es gab auch eine Reihe anderer Updates. Google sagte, es werde digitale Wasserzeichen zu KI-generierten Videos und Texten hinzufügen, Gemini im Seitenbereich in Gmail und Docs zugänglich machen, einen KI-gestützten virtuellen Kollegen in Workspace unterstützen, Telefonanrufe abhören und erkennen, ob Sie tatsächlich betrogen werden Zeit und vieles mehr.
Verfolgen Sie alle Neuigkeiten von Google I/O 2024 live Hier!
Aktualisiert am 15. Mai, 14:45 Uhr ET: Diese Geschichte wurde nach der Veröffentlichung aktualisiert und enthält nun Details zu den neuen Ankündigungen zu Android 15 und WearOS 5, die nach der Keynote zur I/O 2024 veröffentlicht wurden.
„Hipsterfreundlicher Entdecker. Preisgekrönter Kaffeefan. Analyst. Problemlöser. Störenfried.“
More Stories
Dieses 100-W-GaN-Ladegerät ist dünn und faltbar
Kuo: Das RAM-Upgrade auf 12 GB im nächsten Jahr wird auf das iPhone 17 Pro Max beschränkt sein
Verdansk kehrt endlich zu Call of Duty Warzone zurück und die Fans freuen sich darüber