Description
Added on the 23/08/2020 13:29:06 - Copyright : Astrology Enterprises Limited
On vient de perdre la seule chose en laquelle tout le monde croyait encore : les images. Je t’explique tout.
C’est officiel : Google lance Gemini 3 Pro et les chiffres sont hallucinants. Il s’agit du nouveau meilleur modèle de langage dans la quasi-totalité des tests officiels, avec des résultats largement supérieurs à ceux d’OpenAI (GPT-5.1), Anthropic (Claude) et xAI (Grok). Avec Gemini 3 Pro, Google veut mettre fin à l’hégémonie de ChatGPT. Le modèle est disponible partout gratuitement, peut générer des modules interactifs, des pages, des applications et veut même réinventer la recherche Google, le tout en vous disant la vérité, et pas « ce que vous avez envie d’entendre ». Google a-t-il enfin tué le game de l’IA ? On analyse tout ça. Sommaire 00:00 - Google annonce Gemini 3 Pro 00:55 - Google veut tuer ChatGPT 02:19 - Gemini 3 et le vibe coding 03:15 - Google va tout changer sur le web 04:05 - Gemini 3 veut détrôner ChatGPT 05:16 - L'intégration aux appareils de Gemini 3 L'article par ici ► https://numerama.com --- Abonnez-vous à notre chaîne ► https://youtube.com/c/numerama Retrouvez toutes nos playlists ► https://www.youtube.com/c/numerama/playlists --- Rejoignez-nous : Notre site ► http://www.numerama.com/ Twitter ► https://twitter.com/numerama Instagram ► https://www.instagram.com/numerama TikTok ► https://www.tiktok.com/@numerama Facebook ► https://www.facebook.com/Numerama/ ️ Twitch ► https://www.twitch.tv/numerama
Suivez @numerama pour anticiper l'avenir ! C’est officiel : Google lance Gemini 3 Pro et les chiffres sont hallucinants. Il s’agit du nouveau meilleur modèle de langage dans la quasi-totalité des tests officiels, avec des résultats largement supérieurs à ceux d’OpenAI (GPT-5.1), Anthropic (Claude) et xAI (Grok) ! On vous en dit plus
Comment maîtriser Perplexity en cinq astuces ? 1. Installer les applications. Perplexity fonctionne sur tous les navigateurs, mais en installant les apps sur votre smartphone ou votre ordinateur, vous accédez à des fonctionnalités bien plus pratiques au quotidien. 2. Personnaliser les sources. Même sans compte, vous pouvez ajuster les sources en cliquant sur le petit pictogramme dédié. Vous avez alors le choix entre le web traditionnel, les sources universitaires ou les sources sociales. Les sources académiques sont idéales pour des recherches scientifiques, car Perplexity ira uniquement dans des publications spécialisées. Si au contraire vous cherchez des opinions ou des synthèses issues de discussions entre internautes, l’option sociale est faite pour vous : l’outil explorera exclusivement les forums, Reddit ou encore les réseaux sociaux. 3. Créer un compte gratuit. En quelques secondes, vous débloquez des options essentielles. Avec un compte gratuit, vous bénéficiez de trois recherches Pro par jour : plus longues, plus riches en sources et donc plus précises. Vous accédez aussi à la géolocalisation, utile pour des recherches liées à votre position. À l’inverse, vous pouvez activer le mode incognito pour supprimer toute influence de votre localisation ou de votre historique, et empêcher l’enregistrement de vos recherches. Enfin, les espaces deviennent disponibles : ils permettent de configurer des pré-prompts personnalisés pour optimiser vos requêtes. 4. Utiliser les espaces. Ces espaces servent à créer de petits “robots” adaptés à vos besoins. Il suffit d’entrer un thème et un prompt précis. Par exemple : “Tu es une agence de voyage qui propose 25 % d’activités culturelles et 75 % d’activités outdoor pour des clients sportifs. Quand je saisis une destination, propose-moi un programme dans ces proportions dans un rayon de 15 km.” Ensuite, vous n’aurez plus qu’à entrer une ville et Perplexity générera l’itinéraire. Vous pouvez même ajouter des fichiers à vos espaces pour enrichir et personnaliser encore davantage vos prompts. 5. Obtenir Perplexity Pro gratuitement (ou presque). Perplexity Pro lève toutes les limites quotidiennes et ajoute des options avancées, mais son prix est élevé : 22 € par mois ou 229 € par an. En France, il existe toutefois deux solutions plus avantageuses : • Bouygues Télécom inclut Perplexity Pro dans certains abonnements box et mobiles. • Revolut propose Perplexity Pro dans son offre Metal à 16,99 € par mois. En plus, cet abonnement inclut une carte bancaire premium et jusqu’à 2 600 € d’abonnements par an (Perplexity Pro, NordVPN, Uber One, etc.). Autrement dit, pour moins cher que Perplexity Pro seul, vous accédez à une multitude de services supplémentaires.
D’ici l’année 2030, Meta pense pouvoir révolutionner l’informatique avec des lunettes de réalité augmentée. Le géant des réseaux sociaux, qui a présenté son prototype Orion en 2024, est convaincu que nous pourrons bientôt ajouter des éléments virtuels à notre vision. Son prototype embarque deux écrans transparents, des capacités de suivi du regard et utilise un boîtier externe pour délocaliser sa puissance, ce qui lui permet d’émuler une sorte d’Apple Vision Pro dans des lunettes de vue. Le problème est qu’il n’est pas encore prêt, ce qui ne fait pas les affaires de Meta. Le 30 septembre, Meta commercialisera une sorte de précurseur des Orion. Les Meta Ray-Ban Display, qui prennent la forme de Ray-Ban Meta un peu plus épaisses, embarquent un petit écran dans l’œil droit et se pilotent à l’aide d’un bracelet neuronal (et avec la voix, pour parler à l’assistant Meta AI). Numerama a essayé les Meta Ray-Ban Display en avant-première : voici notre avis sur les lunettes qui offrent un avant-goût d’un futur que l’on ne pensait pas aussi imminent. Les Meta Ray-Ban Display ressemblent beaucoup aux Ray-Ban Meta. La principale différence esthétique entre les deux lunettes est la présence de bordures plus épaisses, qui sont nécessaires pour embarquer des composants technologiques supplémentaires et une plus grande batterie. Meta, que les rumeurs suspectaient de vouloir lancer ses propres lunettes sans partenariat sur le design, fait le pari de rester avec Ray-Ban. Une stratégie qui vise à améliorer l’acceptabilité des ordinateur-lunettes, que les premiers acheteurs pourront porter incognito. Dans le verre droit des Meta Ray-Ban Display, les plus observateurs remarqueront la présence de drôles de lignes. Ce morceau de silicone est en réalité un écran avec une définition de 42 pixels par degré, relié à un mini-projecteur dans la branche, qui nous a semblé extrêmement correct lors de notre premier essai. Lorsqu’il est actif, l’écran affiche une image d’une taille équivalente à celle d’une montre connectée, sauf que cette dernière flotte devant l’œil. En pratique, l’expérience est assez bluffante : il suffit de tapoter deux fois avec son pouce et son majeur pour réveiller l’écran et voir apparaître ses notifications, un itinéraire ou la vue de l’appareil photo. Le revers de la médaille est que l’écran des Meta Ray-Ban Display, qui n’est projeté que devant un œil, n’est pas très bien géré par le cerveau. Lorsque les deux yeux sont ouverts, on perçoit une transparence étrange, qui gêne parfois la lecture. Fermer l’œil gauche améliore nettement la lisibilité, mais donne aussi l’impression d’être beaucoup plus bête. Autre conséquence de ce choix : quand on parle à quelqu’un tout en consultant l’écran, le regard dévie vers la droite, ce qui donne l’impression d’avoir la tête en l’air. Il s’agit malgré tout d’une prouesse technologique, surtout dans un produit de 69 grammes, mais il est évident que cette première génération va souffrir de défauts inévitables. À quoi sert l’écran des Meta Ray-Ban Display ? Si la proposition de Meta est encore loin de pouvoir remplacer un smartphone, elle est assurément une menace pour les montres connectées. Par défaut, l’écran est éteint. Mais quand on l’allume en tapotant avec ses doigts, les notifications apparaissent. On peut ensuite accéder à la vue des applications, pour lancer plusieurs logiciels spécialement adaptés aux lunettes : Les notifications, avec la possibilité de répondre en dictant du texte ou en le dessinant sur sa jambe. L’accès aux messages avec le support des SMS, de WhatsApp, de Messenger et d’Instagram. Une application Maps, avec un GPS qui tourne en fonction de où l’utilisateur regarde. L’appareil photo, pour voir ce que voit le capteur en temps réel. On peut zoomer en faisant tourner sa main. La galerie photo, pour accéder à toutes ses photos prises avec les lunettes sans avoir à passer par son smartphone. On peut directement les envoyer par message. L’application Instagram, pour regarder des vidéos Reels. Des interactions imagées avec l’assistant Meta AI, pour voir les réponses ou générer du contenu. Des jeux vidéo spécialement adaptées aux lunettes. Meta annonce 6 heures d’autonomie sur ses lunettes, mais il s’agit en réalité d’un « usage mixte » qui mêle une utilisation avec écran éteint et allumé. Quand l’écran émet de la lumière, il peut rester allumé pendant 1 heure. N’espérez pas utiliser le GPS des lunettes pendant des heures, la technologie n’est pas encore assez mature. Meta a au moins eu la bonne idée d’améliorer le design de sa boîte de recharge, qui peut désormais se plier pour entrer dans la poche. Elle permet de recharger les lunettes cinq fois, pour 30 heures d’usage mixte.
Gemini 2.5 Flash 2.5, nom de code Nano-banana, a pris tout le monde par surprise : il est capable d'éditer des bouts de vos photos en gardant une cohérence complète et de préserver les éléments que vous ne souhaitez pas modifier. Comment utiliser et maîtriser cet outil qui explose la concurrence côté génération d'image par IA ? On vous explique tout avec ces exemples.