AZEEM AZHAR : Salut, je suis Azeem Azhar. Au cours des dix dernières années, j’ai étudié les technologies exponentielles, leur émergence, leur adoption rapide et les opportunités qu’elles créent. J’ai écrit un livre à ce sujet en 2021 intitulé The Exponential Age. Même avec mon expertise, je trouve parfois difficile de suivre le rythme rapide des changements dans l’IA, donc je suis ravi de partager avec vous une série d’informations hebdomadaires où nous pouvons nous plonger dans certaines des questions les plus intéressantes sur l’IA. Dans la courte note d’aujourd’hui, je vais parler de la façon dont je vois cette dernière vague de développement et d’innovation de l’IA changer le Web. Je crois que les grands modèles linguistiques ont un énorme potentiel pour révolutionner la façon dont nous accédons et utilisons l’information en ligne. En fait, ils seront le successeur du Web 2.0, le Web propulsé par l’IA. Voici comment je pense que cette révolution pourrait se produire.

Il y a un grand sentiment que le Web 2.0 est passé d’un Web social à des services qui étaient très, très fermés et contrôlés par les principaux agrégateurs en ligne comme Facebook et d’autres. Et donc, comme nous le savons, au cours des deux dernières années, il y a eu une chasse à ce qui pourrait être le Web 3.0, et la théorie était que le Web 3.0 pourrait être construit sur son propre modèle de données sur la blockchain, et comme nous le savons, en plus d’une décennie, très peu de gens utilisent des produits similaires.

Il y a eu beaucoup de restrictions, et les développeurs de l’espace Web 3.0 sont revenus à l’essentiel d’une part, et d’autre part, les régulateurs font l’objet d’une sorte d’affirmations scandaleuses et scandaleuses dans le comportement qui est venu hors de ce segment. Pendant ce temps, l’intelligence artificielle a commencé à vraiment, vraiment s’améliorer, et je pense qu’en voyant la maturité de ces LLM, nous commençons en fait à voir les contours d’un nouvel ensemble d’interactions comportementales sur Internet d’une part, et une toute nouvelle classe de diffusion de l’information et d’économie de l’information qui, d’autre part, prend en charge et qui passe en fait par le LLM.

Si vous pensez à ce qu’était vraiment le Web, il s’agissait vraiment de trouver, d’accéder et d’utiliser des informations. Je veux dire, c’était le but du système que Sir Tim Berners-Lee a prototypé et construit au CERN en 1989, et la direction du voyage consistait à rendre le système de plus en plus riche et de plus en plus riche. Les moteurs de recherche sont arrivés. Au début, il ne s’agissait que de moteurs de recherche par mots clés, et ils sont devenus de plus en plus sophistiqués et ont accéléré notre capacité à accéder à ces informations, tandis que les outils de publication nous ont permis de publier plus facilement dans cet espace.

Et puis nous sommes entrés dans ce genre de boue, la mélasse à la fin des années 2000 et dans les décennies où les modèles commerciaux ont commencé à s’appliquer et où tout a commencé à avoir un peu l’air d’avoir perdu de son éclat. Nous recherchons donc ce nouveau paradigme, et ce que je vois dans le LLM est exactement l’établissement de ce paradigme. Ce n’est en aucun cas transparent, mais cela nous donne un tout nouveau mécanisme d’interaction pour utiliser ces systèmes informatiques distribués que nous avons sur Internet.

Et ce qui est fascinant, c’est que même ceux-là, tous ces produits ChatGPT et GPT-4 et d’autres que j’utilise sont en version bêta, souvent même pas sortis comme des produits comme ChatGPT. Je les utilise de plus en plus souvent que je n’ai jamais vraiment utilisé ces cryptos Web 3.0 à des fins pratiques au quotidien.

Et juste cette semaine, OpenAI a annoncé des plugins. C’est la capacité de connecter des chatbots à des services de base comme WolframAlpha pour les mathématiques ou Kayak pour les réservations de vols ou Shopify pour le commerce, et cela devient vraiment, vraiment puissant car cela nous donne une interface conversationnelle pour des informations transactionnelles ou autres hautement fiables.

Si vous y réfléchissez, cela corrige certaines de ces faiblesses que les LLM ont et que nous ne pouvons toujours pas supprimer, à savoir leur capacité à halluciner ou à faire assez bien, puis à exploser en mettant des informations aléatoires, car maintenant je peux récupérer ces données. d’une source fiable. Mais l’autre chose est que nous pouvons commencer à faire en sorte que ces LMS fassent tellement de choses que, comme me l’a dit l’un de mes collègues, “Wow, c’est comme si vous ne preniez même plus la peine de créer un logiciel parce que vous le tapez simplement. à LLM et commencez à fabriquer ce dont vous avez besoin.

Encore une fois, nous n’en voyons que des indices, mais nous supposons, je pense qu’il serait raisonnable de supposer, que cela va aller de mieux en mieux plutôt que de pire en pire. Alors vous entrez dans cet espace où le Web pourrait être largement médiatisé par des interfaces pilotées par un LMS d’un type ou d’un autre.

Ensuite, nous obtenons la question, sera-ce le seul gagnant? Est-ce que ce sera une taille unique, comme c’était le cas avec la recherche sur le Web, qui est essentiellement Google qui prend tout, ou est-ce que ce sera quelque chose de beaucoup plus fragmenté par cas d’utilisation, comme nous l’avons vu avec les médias sociaux ? Et j’ai l’impression que nous allons nous retrouver avec un certain nombre de ces différents services pour de très bonnes raisons. Nous nous retrouverons donc avec des services différents car il y aura des inquiétudes quant à la transmission d’informations, en particulier d’informations d’entreprise, dans des LLM généralisés hébergés.

Ainsi, vous commencerez à voir des organisations chercher à transmettre leurs connaissances, à la fois en interne et par l’intermédiaire de leurs clients, via leurs propres systèmes exécutés efficacement sur site. On commence aussi à voir des pays vouloir préserver leur propre contexte culturel, politique et historique au sein de ces interfaces. Ils ont appris en particulier de l’expérience de Facebook d’essayer de fournir des normes uniques pour le comportement et l’enregistrement des utilisateurs et le type d’attributs qui vous intéressent, des normes qui ont été élaborées dans un dortoir de Harvard puis appliquées à l’échelle mondiale.

Et je pense qu’au niveau national, les deux pays et leurs habitants commenceront à penser qu’il est très important de refléter notre patrimoine culturel, nos histoires historiques et notre contexte plus large. Je m’attendrais donc à voir des LLM localisés, nationalisés et communautaires utilisés comme interfaces avec ces systèmes.

Et puis je pense que la dernière partie de tout cela est que les appareils comptent vraiment, vraiment aussi, et c’est ce que j’ai écrit. Cependant, je m’attendrais à ce qu’avec les appareils LLM, nous commencions à penser que la confidentialité est sécurisée, c’est-à-dire qu’elle n’entre pas en conflit avec la collecte de données ou les problèmes de confidentialité que nous voyons lorsque nous utilisons des choses comme ChatGPT ou TikTok ou Facebook, mais plutôt un où la technologie vit et réside sur un appareil qui est essentiellement le nôtre parce que nous l’avons payé. Ils sont stockés dans une enclave sécurisée et privée, en grande partie sur un appareil auquel nous seuls pouvons accéder, comme la façon dont Apple Photos fonctionne sur votre iPhone.

Et je pense que tout cela indique qu’il y a beaucoup de ces différents systèmes qui vont fonctionner de manière légèrement différente. Ce dont je ne suis pas si sûr maintenant, et auquel je dois réfléchir un peu plus, c’est de savoir si nous verrons un seul acteur super dominant sur le marché. Je pense que cela peut commencer à s’appliquer dans certains segments. Et d’autant plus que GPT-4 est meilleur que les alternatives accessibles au public pour les informations qui ne sont pas très sensibles, il est assez difficile de voir pourquoi ils ne pourraient pas maintenir une partie de cet élan un peu plus longtemps.

Mais je ne pense pas que les effets de réseau se déroulent de la même manière que lorsque Google a lancé son moteur de recherche pour la première fois. Je n’ai donc pas encore d’avis vérifié à son sujet. Je suis encore en train de comprendre, mais je suis assez confiant que nous avons maintenant une idée de ce qui vient après le Web 2.0, c’est-à-dire que ce sera quelque chose qui sera de plus en plus médiatisé par ces grands modèles de langage connectés à des ressources et des services fiables. ci-dessous et je pense que cela va vraiment commencer à changer les schémas d’interaction et fondamentalement le modèle économique du site.

D’accord, merci d’être à l’écoute. Si vous voulez vraiment comprendre les subtilités de l’IA, visitez www.exponencialview.co où je partage ces idées avec des centaines de milliers de lecteurs.

Leave a Reply

Your email address will not be published. Required fields are marked *