Comme la plupart des perturbations, la technologie de la vente au détail numérique a connu des débuts difficiles. Une multitude de détaillants sur Internet dans les années 1990—, , et à peu près—ont adopté ce qu’ils appelaient les achats en ligne ou le commerce électronique. Ces entreprises naissantes se sont déchaînées jusqu’à ce qu’une combinaison de stratégies mal conçues, de paris spéculatifs et d’une économie en ralentissement éclate la bulle Internet. L’effondrement qui a suivi a anéanti la moitié de tous les détaillants de commerce électronique et a provoqué un brusque passage de l’exubérance irrationnelle à la réalité économique.
Aujourd’hui, cependant, cette réalité économique est bien établie. Le cabinet d’études Forrester estime que le commerce électronique approche désormais les 200 milliards de dollars de chiffre d’affaires rien qu’aux États-Unis et représente 9 % du total des ventes au détail, contre 5 % il y a cinq ans. Le chiffre correspondant est d’environ 10 % au Royaume-Uni, 3 % en Asie-Pacifique et 2 % en Amérique latine. À l’échelle mondiale, la vente au détail numérique se dirige probablement vers 15 à 20 % des ventes totales, bien que la proportion varie considérablement selon les secteurs. De plus, une grande partie de la vente au détail numérique est désormais très rentable. Le retour sur investissement moyen d’Amazon sur cinq ans, par exemple, est de 17%, alors que les discounts traditionnels et les grands magasins sont en moyenne de 6,5%.
Dans cette vidéo, le partenaire Darrell Rigby explique comment les détaillants utilisent cette approche pour améliorer leurs offres en magasin.
Ce que nous voyons aujourd’hui n’est que le début. Bientôt, il sera même difficile de définir le commerce électronique, et encore moins de le mesurer. S’agit-il d’une vente en ligne si le client se rend dans un magasin, constate que le produit est en rupture de stock et utilise un terminal en magasin pour qu’un autre emplacement l’expédie à son domicile ? Que se passe-t-il si le client fait ses courses dans un magasin, utilise son smartphone pour trouver un prix inférieur dans un autre, puis le commande par voie électronique pour le retrait en magasin ? Qu’en est-il des cadeaux commandés sur un site Web mais échangés dans un magasin local ? Les experts estiment que l’information numérique influence déjà environ 50 % des ventes en magasin et que ce nombre augmente rapidement.
De SIRI à la conduite personnelle d’une automobile, agence web Comines l’intellect synthétique (IA) progresse rapidement. Alors que la science-fiction décrit généralement l’IA comme des robots aux caractéristiques semblables à celles de l’homme, l’IA peut englober tout, des techniques de recherche de Google à Watson d’IBM en passant par les outils autonomes. Aujourd’hui, les connaissances créées par l’homme sont correctement appelées IA étroite (ou IA affaiblie), en ce sens qu’elles doivent être développées pour effectuer une tâche étroite (par exemple, uniquement la reconnaissance faciale ou uniquement des recherches sur le Web ou uniquement la conduite d’une voiture). Néanmoins, l’objectif à long terme de plusieurs experts est de générer une IA générale (AGI ou IA solide). Alors que l’intelligence artificielle étroite peut surpasser les humains dans toutes ses tâches, comme jouer activement aux échecs ou résoudre des équations, l’AGI surpasserait les humains dans pratiquement toutes les tâches cognitives. À court terme, l’objectif de maintenir l’impact de l’IA sur la communauté bénéfique inspire des études dans de nombreux domaines, de l’économie et de la législation aux domaines technologiques tels que l’affirmation, l’applicabilité, la protection et le contrôle. Bien que ce ne soit rien de plus qu’une petite nuisance en cas d’accident ou de piratage de votre ordinateur portable, il peut être beaucoup plus essentiel qu’un programme d’IA fasse ce que vous voulez qu’il fasse s’il contrôle votre véhicule, votre avion, votre stimulateur cardiaque, votre système de trading automatisé ou votre réseau énergétique. Un autre défi à court terme consiste à arrêter une course aux armements écrasante dans des outils autonomes mortels. À long terme, une question essentielle pour vous est de savoir ce qui va se passer si la poursuite d’une IA forte réussit et si un système d’IA devient meilleur que les humains dans tous les domaines cognitifs. Comme l’a révélé I.J. Génial en 1965, créer de meilleures méthodes d’IA est en soi un travail cognitif. Ce type de méthode pourrait potentiellement subir un développement personnel récursif, activant une explosion de l’intellect éloignant l’intellect individuel de manière significative. En créant des technologies innovantes, ce type de superintelligence nous aidera à nous débarrasser de la bataille, de la maladie et de la pauvreté, et ainsi la création d’une IA forte peut être le plus grand événement dans le milieu humain. Certains professionnels ont exprimé leur inquiétude, cependant, cela peut également fonctionner comme la finale, sauf si nous apprenons à aligner les objectifs de l’IA avec les nôtres avant qu’elle ne soit superintelligente. Il y en a plusieurs qui se demandent si une IA solide sera jamais atteinte, mais d’autres insistent sur le fait que la création d’une IA superintelligente sera certainement bénéfique. Chez FLI, nous reconnaissons ces deux opportunités, mais reconnaissons également l’opportunité d’un système intellectuel artificiel de déclencher intentionnellement ou par inadvertance d’excellents dommages. Nous savons que les enquêtes de nos jours peuvent nous aider à mieux nous préparer à prévenir de telles conséquences potentiellement défavorables à l’avenir, profitant ainsi des avantages de l’IA tout en évitant les problèmes. La plupart des experts reconnaissent qu’une IA superintelligente est peu susceptible de montrer des émotions humaines telles que jouir ou détester, et il n’y a aucune raison que l’IA devienne intentionnellement bienveillante ou malveillante. Au lieu de cela, quand il s’agit de savoir comment l’intelligence artificielle peut éventuellement devenir un risque, les experts ressentent probablement deux situations: l’IA est programmée pour faire quelque chose d’écrasant: les outils autonomes sont des systèmes de connaissances artificiels qui sont développés pour tuer. Entre les mains de la mauvaise personne, ces outils pourraient très facilement entraîner des pertes massives. De plus, une course aux armements de l’IA pourrait accidentellement provoquer une guerre de l’IA qui entraînerait également des pertes de taille. Pour éviter d’être contrarié par l’adversaire, ces armes pourraient être rendues très difficiles à «éteindre» simplement, de sorte que les humains pourraient vraisemblablement perdre le contrôle de ce genre de scénario. Ce danger est celui qui existe même avec une IA mince, mais qui augmente à mesure que l’intelligence de l’IA et l’autonomie augmentent. L’IA est conçue pour rendre un mouvement bénéfique, mais elle construit une méthode destructrice pour atteindre son but: cela peut se produire si nous oublions d’aligner totalement les cibles de l’IA avec les nôtres, ce qui est extrêmement difficile. Si vous vérifiez avec une automobile intelligente et obéissante de vous considérer au terminal de l’aéroport le plus rapidement possible, cela pourrait vous y amener poursuivi par des hélicoptères et inclus dans le vomi, ne faisant pas ce dont vous aviez besoin mais en fait ce que vous avez demandé. Lorsqu’un produit superintelligent est chargé d’un projet de géo-ingénierie engagé, il peut provoquer la destruction de l’écosystème étant un effet secondaire, et considérer les efforts individuels pour l’arrêter comme une menace à satisfaire. Comme le montrent ces illustrations, le souci d’une IA sophistiquée n’est pas la malveillance mais la compétence. Une IA super-intelligente sera très efficace pour atteindre ses objectifs, et si ces objectifs ne correspondent pas aux nôtres, il existe un problème. Vous n’êtes probablement pas un méchant anti-fourmis qui agit sur les fourmis par malice, mais si vous êtes responsable d’une entreprise d’énergie verte hydroélectrique et qu’il y a une fourmilière dans la région pour être surchargée, tant pis pour les fourmis. Un objectif clé de la recherche fondamentale sur la sécurité de l’IA est de ne jamais repérer l’humanité à la place de ces fourmis.