Google I/O: de « l'IA d'abord » à une IA au service de tous

  • Sep 05, 2023

Deux ans après avoir adopté sa stratégie « AI first », le PDG Sundar Pichai a montré comment Google appliquait l'IA sur ses plates-formes pour rendre Google « plus utile ».

img-20190507-100255.jpg

Plus de Google I/

  • Le Pixel 3a bénéficie d'un timing presque parfait compte tenu de la transition 4G vers 5G
  • Duplex nouvelle génération et l'assistant prend en charge davantage de tâches
  • Android Q reçoit des mises à jour de sécurité sans redémarrer
  • L'Assistant Google sait où habite votre mère
  • Le framework d'interface utilisateur Flutter devient multiplateforme
  • TCAV s’attaque aux biais du modèle d’IA
  • Sundar Pichai s'exprime au milieu des scandales
  • AR et Lens: plus près de l'avenir de la recherche

Grâce aux progrès de l'IA, Google va au-delà de sa mission principale consistant à "organiser l'information mondiale", a déclaré mardi le PDG de Google, Sundar Pichai.

Aussi: Le Pixel 3A est officiel: voici ce que vous devez savoirAndroid Q: tout ce que vous devez savoir

"Nous passons d'une entreprise qui vous aide à trouver des réponses à une entreprise qui vous aide à faire avancer les choses", a déclaré Pichai dans son discours d'ouverture sur Google I/O. "Nous voulons que nos produits travaillent plus dur pour vous dans le contexte de votre travail, de votre maison et de votre vie."

Il y a deux ans, lors de la conférence annuelle des développeurs, Pichai a présenté le "L'IA d'abord" stratégie. Mardi, il a expliqué comment l'IA a un impact significatif sur toutes ses plateformes, produits et services.

Des systèmes d'exploitation et applications aux appareils domestiques et interfaces embarquées, Google diffuse l'IA partout. L'idée est que l'IA aidera les gens à être plus productifs dans tous les aspects de leur vie, qu'ils travaillent dans un environnement d'entreprise ou qu'ils aient besoin d'aide pour lire les panneaux dans le métro. Avec Google Assistant au cœur de nombreuses annonces, y compris le Duplex de nouvelle génération, il est clair que les nouvelles capacités d'IA apporteront davantage de valeur à de nombreux produits de Google et aideront potentiellement Google à développer ses sources de revenus. au-delà des ventes publicitaires.


Doit lire

  • L'assistant nouvelle génération de Google est 10 fois plus rapide et sait où habite votre mère (CNET)
  • Google Duplex, mais bien moins effrayant et plus utile (CNET)
  • Google rapproche AR et Lens de l'avenir de la recherche (CNET)

Pichai a ouvert la conférence en montrant comment l'apprentissage automatique permet de nouvelles fonctionnalités dans la recherche. Par exemple, Google apporte sa fonctionnalité d'actualités « Couverture complète » à la recherche Google afin de mieux organiser les résultats d'actualités dans la recherche. Si un utilisateur recherche, par exemple, « trou noir », l’apprentissage automatique l’aidera à identifier différents types d’histoires et lui donnera une image complète de la façon dont une histoire est couverte.

Google étend également les capacités de Lens – l'outil de caméra AI qui a fait ses débuts lors des E/S de l'année dernière – pour connecter davantage d'objets du monde physique avec des informations numériques. Ainsi, par exemple, un utilisateur pourrait pointer son appareil compatible Lens vers un menu de restaurant pour afficher des images des éléments de menu. Ou encore, ils pourraient indiquer à Lens une recette du magazine Bon Apetit pour voir la page prendre vie. Google a déclaré qu'il travaillait avec des partenaires tels que des détaillants et des musées pour créer ce type d'expériences.

Pour garantir que les fonctionnalités de la caméra AI fonctionnent réellement pour tout le monde, Google a annoncé avoir intégré de nouvelles fonctionnalités de traduction de texte et de parole dans Google Go, l'application de recherche pour les appareils d'entrée de gamme. Un utilisateur peut simplement pointer l’application vers un panneau pour le lui faire lire à haute voix. Les utilisateurs peuvent également demander à l'application de traduire le texte, puis de le lire à haute voix dans leur langue préférée.

La fonctionnalité fonctionne actuellement dans plus d'une douzaine de langues. Il exploite la synthèse vocale, la vision par ordinateur et les 20 années d'expérience linguistique de Google dans la recherche. Compressé en un peu plus de 100 Ko, il peut fonctionner sur des téléphones coûtant seulement 35 dollars, ce qui le rend accessible à plus de 800 millions d'adultes dans le monde qui ont du mal à lire.

Offres incontournables

  • Google Home (blanc) chez Best Buy
  • Google Home Mini (Craie) chez Walmart
  • Google Home Max (charbon) chez Best Buy
  • Google Home Hub (Craie) chez Walmart
  • Google Nest Hub (charbon) chez Walmart

L'IA génère également de nouveaux outils intégrés aux appareils, dont certains visent à améliorer l'accessibilité pour les utilisateurs handicapés. Par exemple, un outil appelé Live Relay aide les personnes sourdes à utiliser le téléphone, même si elles préfèrent ne pas parler. Fonctionnant entièrement sur l'appareil - la conversation privée restant entre les mains de l'utilisateur - Live Relay traduira la parole des appels entrants en texte. Ensuite, il traduit les réponses textuelles de l'utilisateur en parole. Cela commence par alerter la personne à l’autre bout du fil qu’elle parle avec l’assistant virtuel de l’utilisateur.

Google explore également l’idée de modèles de communication personnalisés capables de comprendre différents types de discours. Les chercheurs de Google collectent des échantillons de parole d'utilisateurs difficiles à comprendre, comme les personnes qui bégaient ou qui ont subi un accident vasculaire cérébral, afin de former de nouveaux modèles de reconnaissance vocale. Le projet de recherche, appelé Projet Euphonia, devrait éclairer les modèles de reconnaissance vocale de Google Assistant à l'avenir.

Google a également montré comment l'assistant virtuel alimente son matériel, y compris sa famille élargie d'appareils pour la maison intelligente. Google a annoncé avoir rebaptisé la famille Google Home sous le nom Nest et lance le Next Hub Max. Conçu pour les espaces communs comme la cuisine, le Next Hub Max dispose d'une caméra et d'un écran plus grand de 10 pouces. Il peut fonctionner efficacement avec un téléviseur, un cadre photo numérique, un contrôleur de maison intelligente et bien plus encore, a déclaré Google. Il sera lancé plus tard cet été pour 229 $.

Google I/O 2019: les plus grandes annonces de la keynote

En savoir plus sur Google I/O :

  • Google étend Android Jetpack et d'autres outils de développement Android
  • Google I/O: 14 modules du système d'exploitation Android pour obtenir une mise à jour de sécurité en direct
  • Google étend Android Jetpack et d'autres outils de développement Android
  • Google rend les pods Cloud TPU accessibles au public en version bêta
  • Google considère Duplex et Assistant de nouvelle génération comme prenant en charge vos tâches
  • Google dit qu'il s'attaquera au biais du modèle d'IA et d'apprentissage automatique
  • Le Pixel 3A est officiel: voici ce que vous devez savoir
  • Les spécifications, le prix et les fonctionnalités du Pixel 3a de Google ont un timing presque parfait
  • Google étend les capacités du ML Kit pour intégrer le ML dans les applications mobiles
  • Google étend le cadre d'interface utilisateur Flutter du simple mobile au multiplateforme
  • Google I/O 2019: les plus grandes annonces de la keynote