Réseaux de neurones : comment l'intelligence artificielle aide dans les affaires et dans la vie. Tout cela pourrait arriver très bientôt

Je ne bougeais pas et respirais à peine... Sûrement, ils avaient déjà perdu ma trace... Je suis sorti de l'abri et me suis retrouvé nez à nez avec l'un d'eux... Il a crié, mais ne pouvait pas bouger.. . Le jeu a encore planté

L'intelligence artificielle (IA) dans les jeux vidéo est quelque chose que la plupart d'entre nous ne remarquent pas jusqu'à ce qu'elle se brise. Il est invisiblement présent dans tout, influençant notre expérience de jeu, notre perception de chaque instant du jeu, mais c'est l'un des éléments les plus sous-estimés du jeu vidéo. L’IA est l’épice qui donne sa saveur au jeu, nous plongeant dans le monde du jeu comme rien d’autre.

Chacun comprend le terme « intelligence artificielle » à sa manière. Le terme peut faire référence à des processus logiciels qui contrôlent les personnages du jeu, les objets individuels du jeu ou même des adversaires que vous ne voyez jamais (comme dans les jeux de stratégie en temps réel).

Passons à Alien : Isolation. Mis à part les problèmes occasionnels, soyons réalistes : c'est un excellent jeu ! L'un des seuls jeux de cinéma qui vous permet de vous sentir comme si vous étiez dans le film. Alien : Isolation vous donne vraiment l'impression d'être dans un film Alien. Chaque film Alien a un objectif clair : se débarrasser de l’extraterrestre. De nombreux moments individuels des films pourraient se transformer en un gameplay intéressant, qu'il s'agisse de Dallas grimpant à travers la ventilation avec un lance-flammes ou de Ripley enfonçant la reine dans un chargeur mécanique. Ces films, tout comme les jeux vidéo, sont très dynamisants, leur univers se prête très bien à la « gameisation ».

Le jeu Alien : Isolation est fort précisément grâce à son intelligence artificielle. L'Alien doit agir de telle manière que le joueur ait l'impression de faire partie d'un film Alien. L'Alien lui-même est une créature complexe, qui offre de nombreuses opportunités de jeu. Il se cache grâce à une utilisation réfléchie de la conception de la pièce. Il se déplace à travers la ventilation, attaquant de manière inattendue les joueurs. Il déteste le feu, nous pouvons donc utiliser des lance-flammes contre lui. En même temps, le jeu fixe certaines limites de complexité. Nous savons comment ça marche cycle de vieÉtrangers. Nous savons qu'ils saignent de l'acide. Nous connaissons leur intelligence collective. En d’autres termes, les films Alien ont créé un bac à sable convaincant pour les développeurs de jeux.

Chaque décision que vous prenez dans Isolation se répercute sur Alien. Comment te caches-tu ? Comment utiliser le précieux carburant du lance-flammes ? Combien de temps attendez-vous qu'il parte ? Vous êtes confronté à un véritable extraterrestre vivant qui agira et pensera comme un extraterrestre. C'est incroyable, effrayant et étonnant à la fois !


La plupart des joueurs et des développeurs pensent qu’une « IA forte » est essentiellement impossible. Cela signifierait qu’elle doit être égale, voire supérieure, à l’intelligence humaine. Ce ne serait guère confortable de jouer avec quelque chose comme ça.

Une IA forte sera très similaire à l’autre joueur, avec les mêmes objectifs de jeu : elle voudra gagner. Une bonne IA ne veut pas gagner, elle veut que vous travailliez dur pour gagner vos gains. C'est pourquoi Alien n'est pas tant une simulation réaliste du plus grand monstre du cinéma qu'une reconstitution des impressions de celui-ci.

En Isolation, l'Alien est presque toujours à proximité. Bien sûr, vous pouvez le distraire pendant un moment ou vous déplacer d'une pièce à l'autre, mais il finira toujours à proximité. La plupart du temps, l'Alien agit de manière crédible, à l'exception des rares occasions où il traîne inexplicablement dans une pièce pendant que vous retenez votre souffle, en espérant qu'il partira pour que vous puissiez sortir du placard.


L'étranger semble toujours connaître approximativement votre position, ce qui vous maintient dans le suspense et l'incertitude. Il ne vous remarque pas immédiatement (sauf de rares « problèmes »), sauf si vous échouez en furtivité. C'est très pratique pour conserver l'ambiance d'un film d'horreur, mais parfois le moment s'éternise et le jeu commence à « simuler ». Parfois, un jeu est tellement axé sur la création de tension qu’il oublie quelque chose de bien plus important : l’immersion.

C'est drôle, mais à cause des galères marketing, le mot « immersion » a quasiment perdu tout son sens. Désormais, tout jeu qui sait retenir l’attention se vante de « l’immersion ». Mais le sens est initialement différent : lorsque vous plongez dans l’océan, vous existez à l’intérieur de l’océan.


Dans les années 1990, le concept « Immersive Sim » apparaît. L’idée était que les joueurs puissent exister dans le monde du jeu et le traiter comme s’il s’agissait de la réalité. Les simulations immersives les plus célèbres des années 90 étaient System Shock et Thief : The Dark Project. Ces deux jeux ont été développés par Looking Glass Studios et tous deux mettaient fortement l'accent sur l'intelligence artificielle.

Un jeu sans une bonne IA est comme une collection de films vides. Toute une collection c'est bien, mais un film repose sur ses personnages. Une excellente IA donne vie aux personnages du jeu et à son monde. Il s’agit du composant le plus important du jeu pour reproduire l’expérience cinématographique immersive.

Pour un bon exemple de « simulation immersive » en action, revenons à Thief : The Dark Project. Le jeu se déroule dans un monde fantastique et vous incarnez un voleur nommé Garrett. Une mission vous envoie dans des ruines souterraines. La zone de la carte est habitée par des zombies spéciaux. Ils ne peuvent pas être coupés en morceaux comme les ordinaires. Ils reviennent peu de temps après que vous les ayez tués. La seule façon de vraiment s'en débarrasser est d'utiliser de l'eau bénite sur vos coûteuses flèches d'eau, qui éteignent généralement les torches, vous permettant ainsi de vous cacher dans le noir. Lorsqu'un zombie vous remarque, il rugit, avertissant les autres zombies, qui rugissent pour les suivants. De cette façon, il était possible de rassembler une foule de tous les zombies du niveau. S'il n'y avait pas assez de flèches ou d'eau bénite, il fallait penser à un plan.


Par exemple, vous pouvez vous faufiler sur le balcon au-dessus d'une pièce avec deux ou trois zombies, en tirer secrètement un pour qu'il rugisse pour appeler tous les zombies dans la pièce, puis commencer à leur tirer dessus avec de l'eau bénite.

Autrement dit, le jeu créait de l’espace, créait des ennemis dotés d’un ensemble logique de règles et auxquels une logique très réelle pouvait être appliquée.

Par conséquent, un jeu avec une bonne IA fonctionne plus comme un voleur que comme un isolement. La tension est importante dans un jeu Alien, mais l’immersion doit être au cœur du jeu. Si un jeu cesse d’être crédible, ce n’est plus si effrayant.

Bien sûr, pour que l’immersion fonctionne, il faut « adhérer » aux astuces du réalisateur ou du développeur. Le film Alien ne fonctionne pas si quelqu'un devant l'écran nous dit que l'extraterrestre n'est pas vraiment sorti de la poitrine d'une personne. Donc, pour fonctionner, Alien : Isolation doit nous faire croire que c'est réel. Le jeu doit être interactif, c'est-à-dire encore plus réaliste que n'importe lequel des films. Le jeu devrait être passionnant. Les règles doivent avoir du sens et être cohérentes.

Si vous ou le jeu rompez cette relation, le jeu cesse d’être effrayant et l’expérience s’effondre. Lorsque des personnes pourchassant le joueur se figent soudainement, ou lorsqu'un extraterrestre se « téléporte » derrière eux, cela brise l'immersion et enlève l'expérience de jeu. Il cesse de faire peur, ce qui est tout l’intérêt d’Alien en premier lieu.


Nous jouons aux jeux Alien parce que nous voulons vivre l’expérience Alien. Lorsque l’IA casse ou triche, l’immersion est perdue et le jeu s’effondre. Mais lorsque l'IA fonctionne comme il se doit, nous devenons Ripley, cachés dans un casier, retenant notre souffle, attendant que le monstre s'en aille.

Intelligence artificielle – en Dernièrement l'un des sujets les plus populaires dans le monde de la technologie. Des esprits comme Elon Musk, Stephen Hawking et Steve Wozniak sont sérieusement préoccupés par la recherche sur l’IA et affirment que sa création nous met en danger de mort. Dans le même temps, la science-fiction et les films hollywoodiens ont donné naissance à de nombreuses idées fausses autour de l’IA. Sommes-nous vraiment en danger et quelles imprécisions commettons-nous lorsque nous imaginons la destruction de Skynet Earth, le chômage généralisé ou, au contraire, la prospérité et l'insouciance ? Gizmodo s'est penché sur les mythes humains sur l'intelligence artificielle. Voici la traduction complète de son article.

Il a été considéré comme le test le plus important de l'intelligence artificielle depuis que Deep Blue a battu Garry Kasparov lors d'un match d'échecs il y a 20 ans. Google AlphaGo a battu le grand maître Lee Sedol lors du tournoi Go avec un score écrasant de 4 : 1, démontrant à quel point l'intelligence artificielle (IA) a progressé. Le jour fatidique où les machines dépasseront enfin les humains en intelligence n’a jamais semblé aussi proche. Mais il semble que nous ne soyons pas plus près de comprendre les conséquences de cet événement historique.

En fait, nous nous accrochons à des idées fausses graves, voire dangereuses, sur l’intelligence artificielle. L'année dernière fondateur de SpaceX Elon Musk a prévenu que l’IA pourrait conquérir le monde. Ses propos ont provoqué une tempête de commentaires, tant d'opposants que de partisans de cette opinion. Pour un événement aussi monumental à venir, il existe un nombre surprenant de désaccords quant à sa réalisation et, si oui, sous quelle forme. Cela est particulièrement inquiétant compte tenu des incroyables avantages que l’humanité pourrait tirer de l’IA et des risques potentiels. Contrairement à d’autres inventions humaines, l’IA a le potentiel de changer l’humanité ou de nous détruire.

Il est difficile de savoir quoi croire. Mais grâce aux premiers travaux des informaticiens, des neuroscientifiques et des théoriciens de l’IA, une image plus claire commence à émerger. Voici quelques idées fausses et mythes courants sur l’intelligence artificielle.

Mythe n°1 : « Nous ne créerons jamais d’IA avec une intelligence comparable à celle des humains »

Réalité: Nous disposons déjà d’ordinateurs qui ont égalé ou dépassé les capacités humaines aux échecs, au Go, aux opérations boursières et à la conversation. Les ordinateurs et les algorithmes qui les font fonctionner ne peuvent que s’améliorer. Ce n'est qu'une question de temps avant qu'ils ne surpassent les humains dans n'importe quelle tâche.

Gary Marcus, psychologue de recherche à l'Université de New York, a déclaré que « littéralement tous ceux qui travaillent dans le domaine de l'IA croient que les machines finiront par nous battre : « La seule vraie différence entre les enthousiastes et les sceptiques réside dans les estimations de timing. » Des futuristes comme Ray Kurzweil pensent que cela pourrait se produire d’ici quelques décennies ; d’autres estiment que cela prendra des siècles.

Les sceptiques de l’IA ne sont pas convaincants lorsqu’ils affirment qu’il s’agit d’un problème technologique insoluble et qu’il y a quelque chose d’unique dans la nature du cerveau biologique. Nos cerveaux sont des machines biologiques : ils existent dans le monde réel et adhèrent aux lois fondamentales de la physique. Il n’y a rien d’inconnaissable chez eux.

Mythe n°2 : « L’intelligence artificielle aura une conscience »

Réalité: La plupart imaginent que l’intelligence artificielle sera consciente et pensera comme les humains. De plus, des critiques comme Paul Allen, cofondateur de Microsoft, estiment que nous ne pouvons pas encore parvenir à une intelligence artificielle générale (capable de résoudre n’importe quel problème mental qu’un humain peut résoudre) parce que nous manquons d’une théorie scientifique de la conscience. Mais comme le dit Murray Shanahan, spécialiste de la robotique cognitive à l'Imperial College de Londres, nous ne devrions pas assimiler les deux concepts.

« La conscience est certainement une chose étonnante et importante, mais je ne crois pas qu’elle soit nécessaire pour l’intelligence artificielle au niveau humain. Pour être plus précis, nous utilisons le mot « conscience » pour désigner plusieurs attributs psychologiques et cognitifs qu’une personne « possède », explique le scientifique.

Il est possible d’imaginer une machine intelligente dépourvue d’une ou plusieurs de ces fonctionnalités. En fin de compte, nous pourrions créer une IA incroyablement intelligente, incapable de percevoir le monde de manière subjective et consciente. Shanahan soutient que l’esprit et la conscience peuvent être combinés dans une machine, mais il ne faut pas oublier qu’il s’agit de deux concepts différents.

Ce n’est pas parce qu’une machine réussit le test de Turing, dans lequel elle est impossible à distinguer d’un humain, qu’elle est consciente. Pour nous, l’IA avancée peut paraître consciente, mais elle ne sera pas plus consciente d’elle-même qu’un rocher ou une calculatrice.

Mythe n°3 : « Nous ne devrions pas avoir peur de l’IA »

Réalité: En janvier, le fondateur de Facebook, Mark Zuckerberg, a déclaré que nous ne devrions pas avoir peur de l'IA car elle fera une quantité incroyable de bonnes choses pour le monde. Il a à moitié raison. Nous bénéficierons énormément de l’IA, depuis les voitures autonomes jusqu’à la création de nouveaux médicaments, mais rien ne garantit que chaque mise en œuvre de l’IA sera inoffensive.

Un système hautement intelligent peut tout savoir sur une tâche spécifique, comme résoudre un problème financier épineux ou pirater le système de défense d'un ennemi. Mais en dehors des frontières de ces spécialisations, elle sera profondément ignorante et inconsciente. Le système DeepMind de Google est un expert du Go, mais il n'a aucune capacité ni raison d'explorer des domaines en dehors de sa spécialisation.

Beaucoup de ces systèmes peuvent ne pas être soumis à des considérations de sécurité. Un bon exemple est complexe et virus puissant Stuxnet, un ver militaire développé par les militaires israéliens et américains pour infiltrer et saboter les centrales nucléaires iraniennes. Ce virus a infecté (délibérément ou accidentellement) une centrale nucléaire russe.

Un autre exemple est le programme Flame, utilisé pour le cyberespionnage au Moyen-Orient. Il est facile d'imaginer que les futures versions de Stuxnet ou Flame vont au-delà de leur objectif prévu et causent des dommages massifs aux infrastructures sensibles. (Pour être clair, ces virus ne sont pas des IA, mais ils pourraient en être dotés à l’avenir, d’où l’inquiétude).

Le virus Flame a été utilisé à des fins de cyberespionnage au Moyen-Orient. Photo de : Wired

Mythe n°4 : « La superintelligence artificielle sera trop intelligente pour faire des erreurs »

Réalité: Richard Lucimore, chercheur en IA et fondateur de Surfing Samurai Robots, estime que la plupart des scénarios apocalyptiques en matière d'IA sont incohérents. Ils partent toujours du principe que l’IA dit : « Je sais que la destruction de l’humanité est causée par un échec dans ma conception, mais je suis quand même obligé de le faire. » Lucimore dit que si une IA se comporte ainsi, en raisonnant sur notre destruction, alors de telles contradictions logiques la hanteront toute sa vie. Cela dégrade à son tour sa base de connaissances et le rend trop stupide pour créer une situation dangereuse. Le scientifique affirme également que ceux qui disent : « L’IA ne peut faire que ce pour quoi elle est programmée » se trompent tout autant que leurs collègues à l’aube de l’ère informatique. À l’époque, on utilisait cette expression pour affirmer que les ordinateurs n’étaient pas capables de faire preuve de la moindre flexibilité.

Peter Macintyre et Stuart Armstrong, qui travaillent au Future of Humanity Institute de l'Université d'Oxford, ne sont pas d'accord avec Lucimore. Ils soutiennent que l’IA est largement liée à la manière dont elle est programmée. McIntyre et Armstrong pensent que l’IA ne sera pas capable de commettre des erreurs ou d’être trop stupide pour ne pas savoir ce que nous attendons d’elle.

« Par définition, la superintelligence artificielle (ASI) est un sujet doté d’une intelligence nettement supérieure à celle du meilleur cerveau humain dans n’importe quel domaine de la connaissance. Il saura exactement ce que nous voulions qu’il fasse », déclare McIntyre. Les deux scientifiques pensent que l’IA ne fera que ce pour quoi elle est programmée. Mais s’il devient suffisamment intelligent, il comprendra à quel point cela est différent de l’esprit de la loi ou des intentions des gens.

McIntyre a comparé la situation future des humains et de l’IA à l’interaction actuelle entre l’homme et la souris. Le but de la souris est de chercher de la nourriture et un abri. Mais cela entre souvent en conflit avec le désir d’une personne qui souhaite que son animal puisse courir librement. « Nous sommes suffisamment intelligents pour comprendre certains des objectifs des souris. Ainsi, l’ASI comprendra également nos désirs, mais y sera indifférent », explique le scientifique.

Comme le montre l'intrigue du film Ex Machina, il sera extrêmement difficile pour une personne de conserver une IA plus intelligente.

Mythe n°5 : « Un simple patch résoudra le problème du contrôle de l’IA »

Réalité: En créant une intelligence artificielle plus intelligent qu'une personne, nous sommes confrontés à un problème connu sous le nom de « problème de contrôle ». Les futuristes et les théoriciens de l’IA tombent dans un état de confusion totale si vous leur demandez comment nous allons contenir et limiter l’ASI si une telle apparaît. Ou comment s'assurer qu'il sera amical envers les gens. Récemment, des chercheurs du Georgia Institute of Technology ont suggéré naïvement que l'IA pourrait adopter les valeurs humaines et les règles sociales en lisant histoires simples. En réalité, ce sera beaucoup plus difficile.

« De nombreuses astuces simples ont été proposées pour « résoudre » l’ensemble du problème du contrôle de l’IA », explique Armstrong. Les exemples incluent la programmation d'un ASI pour que son but soit de plaire aux gens, ou pour qu'il fonctionne simplement comme un outil entre les mains d'une personne. Une autre option consiste à intégrer les concepts d’amour ou de respect dans le code source. Pour éviter que l’IA n’adopte une vision simpliste et unilatérale du monde, il a été proposé de la programmer pour valoriser la diversité intellectuelle, culturelle et sociale.

Mais ces solutions sont trop simples, comme une tentative de regrouper toute la complexité des goûts et des aversions humaines dans une seule définition superficielle. Essayez, par exemple, de trouver une définition claire, logique et réalisable du « respect ». C'est extrêmement difficile.

Les machines de Matrix pourraient facilement détruire l’humanité

Mythe n°6 : « L’intelligence artificielle va nous détruire »

Réalité: Rien ne garantit que l’IA nous détruira ou que nous ne pourrons pas trouver un moyen de la contrôler. Comme l’a dit le théoricien de l’IA Eliezer Yudkowsky : « L’IA ne vous aime ni ne vous déteste, mais vous êtes constitué d’atomes qu’elle peut utiliser à d’autres fins. »

Dans son livre « Intelligence artificielle. Étapes. Des menaces. Stratégies », le philosophe d’Oxford Nick Bostrom a écrit que la véritable superintelligence artificielle, une fois qu’elle émergera, présentera de plus grands risques que toute autre invention humaine. Des esprits éminents comme Elon Musk, Bill Gates et Stephen Hawking (dont ce dernier a averti que l’IA pourrait être notre « pire erreur de l’histoire ») ont également exprimé leur inquiétude.

McIntyre a déclaré que pour la plupart des objectifs de l'ASI, il existe de bonnes raisons de se débarrasser des gens.

« L'IA peut prédire, à juste titre, que nous ne voulons pas qu'elle maximise les profits d'une entreprise particulière, quel qu'en soit le coût pour les clients. environnement et les animaux. Par conséquent, il est fortement incité à s’assurer qu’il ne soit pas interrompu, perturbé, désactivé ou modifié dans ses objectifs, car cela empêcherait la réalisation de ses objectifs initiaux », affirme McIntyre.

À moins que les objectifs de l'ASI ne reflètent étroitement les nôtres, elle aura une bonne raison de nous empêcher de l'arrêter. Considérant que son niveau d’intelligence dépasse largement le nôtre, nous ne pouvons rien y faire.

Personne ne sait quelle forme prendra l’IA ni comment elle pourrait menacer l’humanité. Comme l’a souligné Musk, l’intelligence artificielle peut être utilisée pour contrôler, réguler et surveiller d’autres IA. Ou encore, il peut être imprégné de valeurs humaines ou d’un désir primordial d’être amical avec les gens.

Mythe n°7 : « La superintelligence artificielle sera amicale »

Réalité: Le philosophe Emmanuel Kant croyait que la raison était étroitement liée à la moralité. Le neuroscientifique David Chalmers, dans son étude « La singularité : une analyse philosophique », a repris la célèbre idée de Kant et l’a appliquée à la superintelligence artificielle émergente.

Si cela est vrai… nous pouvons nous attendre à ce qu’une explosion intellectuelle conduise à une explosion morale. Nous pouvons alors nous attendre à ce que les systèmes ASI émergents soient à la fois super-moraux et super-intelligents, ce qui nous permet d’attendre d’eux une bonne qualité.

Mais l’idée selon laquelle l’IA avancée serait éclairée et gentille n’est pas très plausible dans son essence. Comme l’a souligné Armstrong, il existe de nombreux criminels de guerre intelligents. Le lien entre intelligence et moralité ne semble pas exister chez les humains, c’est pourquoi il s’interroge sur le fonctionnement de ce principe parmi d’autres formes intelligentes.

« Les personnes intelligentes qui se comportent de manière immorale peuvent causer des souffrances à une échelle bien plus grande que leurs homologues plus stupides. Le caractère raisonnable leur donne simplement la possibilité d’être mauvais avec une grande intelligence, cela ne fait pas d’eux de bonnes personnes », explique Armstrong.

Comme l'explique MacIntyre, la capacité d'un sujet à atteindre un objectif n'est pas pertinente pour déterminer si l'objectif est raisonnable au départ. « Nous aurons beaucoup de chance si nos IA sont particulièrement douées et si leur niveau de moralité augmente avec leur intelligence. Compter sur la chance n’est pas la meilleure approche pour quelque chose qui pourrait façonner notre avenir », dit-il.

Mythe n°8 : « Les risques de l’IA et de la robotique sont égaux »

Réalité: C'est spécial erreur commune, propagé par des médias non critiques et des films hollywoodiens comme « Terminator ».

Si une superintelligence artificielle comme Skynet voulait vraiment détruire l'humanité, elle n'utiliserait pas d'androïdes avec mitrailleuses à six canons. Il serait bien plus efficace d’envoyer une peste biologique ou une matière grise nanotechnologique. Ou tout simplement détruire l'atmosphère.

L’intelligence artificielle est potentiellement dangereuse, non pas parce qu’elle peut affecter le développement de la robotique, mais en raison de la manière dont son apparition affectera le monde en général.

Mythe n°9 : « La représentation de l’IA dans la science-fiction est une représentation précise du futur. »

De nombreux types d'esprits. Image : Eliezer Yudkowsky

Bien sûr, les auteurs et les futuristes ont utilisé la science-fiction pour faire des prédictions fantastiques, mais l’horizon des événements établi par l’ASI est une toute autre histoire. De plus, la nature non humaine de l’IA nous empêche de connaître, et donc de prédire, sa nature et sa forme.

Pour nous amuser, nous, les humains stupides, la science-fiction décrit la plupart des IA comme étant semblables à nous. « Il existe un spectre de tous les esprits possibles. Même parmi les humains, vous êtes très différent de votre voisin, mais cette variation n’est rien comparée à tous les esprits qui peuvent exister », explique McIntyre.

La plupart des œuvres de science-fiction n’ont pas besoin d’être scientifiquement exactes pour raconter une histoire captivante. Le conflit se déroule généralement entre des héros de force similaire. "Imaginez à quel point une histoire serait ennuyeuse dans laquelle une IA sans conscience, sans joie ni haine, mettrait fin à l'humanité sans aucune résistance pour atteindre un objectif sans intérêt", raconte Armstrong en bâillant.

Des centaines de robots travaillent dans l'usine Tesla

Mythe n°10 : « C’est terrible que l’IA prenne tous nos emplois. »

Réalité: La capacité de l’IA à automatiser une grande partie de ce que nous faisons et son potentiel à détruire l’humanité sont deux choses très différentes. Mais selon Martin Ford, auteur de L’aube des robots : la technologie et la menace d’un avenir sans emploi, ils sont souvent considérés comme un tout. Il est bon de penser à l’avenir lointain de l’IA, à condition qu’il ne nous détourne pas des défis auxquels nous serons confrontés dans les décennies à venir. Le principal d’entre eux est l’automatisation de masse.

Personne ne doute que l’intelligence artificielle remplacera de nombreux emplois existants, depuis les ouvriers d’usine jusqu’aux échelons supérieurs des cols blancs. Certains experts prédisent que la moitié des emplois aux États-Unis risquent d’être automatisés dans un avenir proche.

Mais cela ne veut pas dire que nous ne pouvons pas faire face au choc. De manière générale, se débarrasser de l’essentiel de notre travail, tant physique que mental, est un objectif quasi utopique pour notre espèce.

"L'IA détruira de nombreux emplois d'ici une vingtaine d'années, mais ce n'est pas une mauvaise chose", déclare Miller. Les voitures autonomes remplaceront les chauffeurs de camion, ce qui réduira les coûts de livraison et, par conséquent, rendra de nombreux produits moins chers. « Si vous êtes chauffeur de camion et gagnez votre vie, vous perdrez, mais au contraire, tous les autres pourront acheter plus de marchandises pour le même salaire. Et l’argent économisé sera dépensé pour d’autres biens et services qui créeront de nouveaux emplois pour les gens », explique Miller.

Selon toute vraisemblance, l’intelligence artificielle créera de nouvelles opportunités de production de biens, permettant ainsi aux gens de faire autre chose. Les progrès de l’IA s’accompagneront de progrès dans d’autres domaines, notamment dans le secteur manufacturier. À l’avenir, il nous sera plus facile, et non plus difficile, de satisfaire nos besoins fondamentaux.

Introduction

Lorsqu’on cherche les origines des idées sur l’intelligence artificielle, on peut citer de nombreux faits et mythes. De l'ancien robot grec Talos, créé par Zeus pour garder l'île de Crète, ou de Charles Babbage avec Ada Lovelace et leur moteur analytique du milieu du XIXe siècle, aux idées de Minsky et McCartney, qui ont créé la définition moderne de l'IA comme toute action effectuée par un programme ou une machine, dont, si elle était effectuée par une personne, nous dirions qu'elle doit faire preuve d'intelligence ou d'ingéniosité.

Je vois les origines de l’IA dans le livre de Galileo Galilei de 1683 « Conversations et preuves mathématiques de deux nouvelles sciences ».

Dans ce livre, Galilée, en particulier, écrit que tout dans le monde, y compris phénomène naturel, peut être exprimé dans le langage des mathématiques. Il s'avère que pour tout phénomène ou action, vous pouvez proposer un algorithme. Ainsi, l’intelligence artificielle est un ensemble d’algorithmes pour toutes les occasions. Et l’une des principales capacités de l’IA sera la capacité de synthétiser indépendamment de nouveaux algorithmes basés sur les données existantes.

Sous une forme tronquée, cela est déjà possible. Par exemple, AlphaGo de Google, après avoir analysé une base de données de 30 millions de mouvements et s'être entraîné plusieurs milliers de fois, a réussi à vaincre le meilleur joueur de Go au monde.


Et IBM forme son supercalculateur Watson pour aider les médecins. L'objectif est d'apprendre à un ordinateur à rechercher des réponses aux questions posées en langage naturel, c'est-à-dire que Watson apprend à mener une enquête médicale. Une sorte de jeu de diagnostic différentiel, mais avec un ordinateur à la place du Dr House. En fait, terminons l'histoire ici. Dans l’esprit des gens ordinaires, l’intelligence artificielle est Jarvis des bandes dessinées Iron Man, Terminator ou, au pire, RoboCop (dans le film, c’est l’IA ajoutée qui aide le cyborg à tirer très rapidement et avec précision). Cette option a bien sûr sa place, mais commençons par ce qui est disponible aujourd'hui.

Quels types d’IA existe-t-il aujourd’hui ?

En général, tous les types d’IA peuvent être divisés en deux catégories : l’IA faible ou limitée et l’IA générale ou forte.

IA faible

En fait, les noms parlent d'eux-mêmes. L'IA est aujourd'hui du premier type - limitée, c'est-à-dire que l'intelligence est adaptée à des tâches spécifiques. Par exemple, lorsque Samsung promet que d’ici 2020, tous les appareils seront dotés d’une IA, cela signifie une version limitée. Les exemples incluent Siri ou Alice, qui peuvent faire exactement ce pour quoi ils sont programmés. Alice répond même de cette façon lorsqu'elle ne sait pas ou ne peut pas faire quelque chose : « Le programmeur a promis de m'apprendre ça plus tard. »

Ce type comprend des cartes Google et Yandex qui analysent les embouteillages et tracent des itinéraires, des caméras qui reconnaissent les scènes, un four intelligent qui régule indépendamment le niveau de chaleur et un robot aspirateur qui, peu importe comment vous l'expliquez, ne peut qu'aspirer et gagner. Je ne te donne pas de pantoufles.

Et jusqu'à présent, il s'agit d'une IA limitée - c'est le seul type d'intelligence artificielle que l'humanité maîtrise. Une IA faible peut être divisée en tâches clés sur lesquelles les experts travaillent aujourd'hui. Ce:

  • reconnaissance de la parole;
  • vision par ordinateur;
  • traitement du langage naturel ;
  • recherche de modèles ou analyse de données ;
  • la robotique.

Il existe deux manières de résoudre ces problèmes : apprendre à certaines IA à comprendre vos mots et à reconnaître les images.

  1. Approche symbolique.

    Cette approche a prévalu de la fin des années 40 au début des années 90. La méthode est basée sur ce que l'on pensait être La meilleure façon« Former » une IA, c’est lui fournir le plus de connaissances possible. Par exemple, dans le contexte de la médecine, toutes sortes de manuels et de bases de connaissances sont chargés dans l’IA. Et l'IA recherche des réponses uniquement sur la base des informations disponibles, traitant les connaissances uniquement selon les règles créées par le programmeur.

    En conséquence, ce type d’IA est idéal pour résoudre des problèmes statiques. Par exemple, vous pouvez y charger tous les manuels sur la langue russe, et l'IA sera capable de bien vérifier les essais, de trouver les erreurs d'orthographe et de ponctuation et, en se concentrant sur les normes orthographiques, pourra même isoler erreurs de discours et des lacunes. Cependant, il le fera uniquement sur la base des règles, c'est-à-dire sans comprendre le contexte, mais en isolant l'ordre et l'orthographe corrects des mots.

    Un autre exemple est la traduction automatique. L'IA formée par les personnages est armée de toutes sortes de dictionnaires et de recueils de phrases. Et si la phrase qui lui est proposée pour traduction se trouve dans l'un d'entre eux, alors il la traduira bien, et sinon, il remplacera simplement les mots, les prépositions et la structure des phrases en fonction des règles établies.

  2. Apprentissage automatique ou IA non caractéristique.

    Contrairement à l’apprentissage symbolique, ce type d’apprentissage implique qu’on montre à l’intelligence artificielle comment résoudre un certain problème, puis qu’on la laisse flotter librement. C'est ainsi que fonctionnent les réseaux de neurones. Je me souviens avoir lu un exemple où un programmeur connectait l’IA au contrôle des arroseurs et lui apprenait à chasser le chat d’un voisin avec de l’eau, qui avait pris l’habitude d’aller aux toilettes sur la pelouse. Le programmeur a montré à l'IA de nombreuses photos avec des chats, après quoi l'intelligence artificielle a développé un réflexe pour allumer l'arroseur chaque fois qu'elle pensait voir quelque chose qui ressemblait à un chat. Le système n’a pas toujours fonctionné correctement. Il semble s'être allumé d'une manière ou d'une autre lorsque l'IA a confondu une ombre sur le trottoir avec un chat.

    Si nous parlons de l'exemple de traduction, alors une IA entraînée peut essayer de comprendre le contexte de la phrase et substituer dans la traduction non pas le premier mot qui répond aux exigences de base, mais celui qui, à son avis, reflète le mieux le style, émotion, argot ou autre chose, sur ce avec quoi il a été formé.

Aujourd'hui, la plupart des programmeurs préfèrent utiliser le deuxième type - l'apprentissage automatique, car il peut, pour ainsi dire, improviser. Par exemple, si une voiture autonome est formée selon le premier type, elle roulera selon les règles, mais si une situation imprévue survient sur la route, la voiture sera en difficulté. Et une voiture entraînée par l’apprentissage automatique peut agir en fonction des circonstances, synthétisant des idées basées sur des informations préalablement fournies.

C'est là qu'un problème se pose. L’une des caractéristiques clés de l’IA symbolique est que le système peut toujours expliquer pourquoi il a pris une décision particulière. Mais dans le cas du machine learning, tout n’est pas simple. C'est pourquoi les mêmes UBER ou Tesla tentent depuis longtemps de comprendre pourquoi leurs voitures ont pris telle ou telle décision qui a conduit à l'accident.

Cependant, pour les mêmes voitures, l'apprentissage symbolique ne convient pas, car toutes les règles de l'IA sont saisies manuellement, c'est-à-dire que, relativement parlant, il est nécessaire d'écrire toutes les actions possibles pour la voiture - une personne s'est précipitée sur la route , une poussette est sortie, une boîte s'est envolée, etc. J'ai oublié d'écrire quelque chose, et tout à coup, il s'est avéré que la voiture avait heurté un élan, car rien n'était dit à ce sujet dans l'ensemble des règles, tandis que l'IA de la machine sera capable de deviner qu'il est impossible de heurter tous les animaux à quatre pattes. animaux.

Comme vous pouvez le constater, une IA faible, malgré ses limites, a de nombreuses utilisations : technologie intelligente, voitures autonomes et traitement des données pour tenter de prédire l'avenir. D’ailleurs, Google Duplex, qui permet de réserver des tables dans un restaurant, est aussi une IA limitée, puisqu’elle peut faire exactement ce qu’on lui a appris.

IA forte (auto-même)

C’est ici que commence le domaine des hypothèses, puisque l’humanité n’a jamais rien vu de pareil. Peut-être que ce n'est que dans les profondeurs de Google ou d'IBM qu'il existe quelque chose de semi-intelligent. Lors de la dernière conférence Google I/O, une chinoise très intelligente, Fei Fei Li, responsable du département Machine Learning et Intelligence artificielle chez Google Cloud, a déclaré que même si plus de 60 ans se sont écoulés depuis la recherche dans le domaine de l'IA, mais la science en est encore à ses débuts et jusqu’à présent, nous ne pouvons parler que de la maîtrise du développement d’une IA limitée.


Cependant, je propose de rêver un peu à une IA forte et d’essayer de déterminer ce qu’elle devrait être et ce qu’elle devrait pouvoir faire. On pense qu'une IA forte a la même intelligence qu'une personne moyenne, c'est-à-dire qu'en théorie, elle peut résoudre n'importe quel problème. Et si le premier était confronté à la tâche de détruire John Connor par tous les moyens, le second a soif d'entropie maximale. . Le Terminator, si le métro est fermé, ira tuer John Connor dans le bus, et si le bus tombe en panne, il marchera ou appellera un taxi, et le méchant écrira que toute la publicité, que l'auteur fait ne comprend rien, va essayer de se livrer à la démagogie et au sophisme. En fait, le plus grand rêve des gouvernements du monde entier est d’acquérir une IA puissante pour mener des opérations militaires et saboter les élections aux États-Unis avec une armée de robots trolls informatiques.

Google affirme que si tout se passe bien, d’ici 2050, il pourrait y avoir une avancée décisive et la première IA puissante apparaîtrait.

La principale faiblesse d'une telle IA est que, malgré toutes ses capacités, elle reste relativement étroite d'esprit, comme la personne moyenne, mais, contrairement à une personne, une IA forte se souvient de tout et est mieux orientée dans la recherche et le traitement des informations.

Un intellect super fort

Cela sort complètement du domaine de la fantaisie. Par exemple, Friday/Jarvis d’Iron Man peut être classé comme simplement un intellect fort.


Si vous vous en souvenez, dans l'un des films, le personnage principal, Tony Stark, a essayé d'inventer une nouvelle source d'énergie non toxique afin de la placer dans sa poitrine. Jarvis l'a aidé, mais seul Tony Stark pouvait encore résoudre le problème, car l'IA n'avait pas assez de « réflexion ». Un intellect super fort sera capable de résoudre de manière indépendante même les problèmes les plus difficiles. tâches complexes. C'est à lui que l'humanité posera une question, à laquelle il répondra « 42 », puis une IA super puissante placera tous les gens dans des cuves de liquides et créera le phénomène de l'élu (ce n'est pas de la foutaise, mais allusions au livre « Le Guide du voyageur galactique » et au film « Matrix »).

Faut-il avoir peur de l’IA ?

Malgré tous les films de science-fiction, il n’y a aucune raison d’avoir peur, du moins jusqu’à l’apparition du dernier type d’IA. Cependant, vous devez avoir peur des personnes engagées dans le développement, car en raison d'une erreur ou délibérément, la règle « tuer tout le monde » au lieu de « enseigner à tout le monde » peut être intégrée dans la même IA limitée. Et puis pour l’IA, il ne reste plus qu’à vérifier la signification de tous les mots du dictionnaire et se mettre au travail.


Cependant, le développement, même limité, de l’IA a déjà entraîné et continuera d’entraîner de nombreux problèmes dans la société moderne.

Premier problème

L’un des problèmes est la destruction de l’échelle de carrière traditionnelle, car le développement de l’IA conduit à l’abandon d’emplois exigeant des niveaux de compétence moyens. Laissez-moi vous expliquer plus en détail. Pour saisir des données dans un ordinateur, il faut une main-d’œuvre bon marché, car, relativement parlant, les humains sont encore mieux à même de reconnaître les captchas. Nous avons également besoin de ceux qui prendront des décisions basées sur des données traitées par ordinateur. Mais les analystes ordinaires ne sont plus nécessaires, car ils analysent et étudient les données sur la base d’algorithmes appris. Par exemple, lorsque j'étais analyste, j'avais 42 options différentes pour traiter les données afin de créer des prévisions. Toutes ces options étaient organisées dans une présentation soignée, à laquelle je me référais régulièrement pour déterminer quelle méthode était la meilleure à utiliser dans une situation donnée. Me remplacer par l'IA semble logique et justifié, car elle permettra de faire face aux tâches de prévision beaucoup plus rapidement. En conséquence, il existe un écart lorsque l'échelle de carrière traditionnelle de l'analyste junior au manager disparaît, puisqu'au point le plus bas de la carrière, il n'y a pratiquement aucune manœuvre pour faire preuve d'intelligence.

Problème deux

Aussi, à cause de l’IA, on va progressivement abandonner les métiers de base qui peuvent être algorithmisés, c’est-à-dire réduits à de simples actions. On observe aujourd'hui quelque chose de similaire chez Auchan et Lenta, où les caissiers sont progressivement remplacés par des machines en libre-service, ainsi qu'un employé aidant à résoudre les problèmes émergents et un agent de sécurité assurant le maintien de l'ordre. À l'avenir, l'agent de sécurité sera remplacé par des caméras de surveillance qui surveillent l'ordre. Il s’avère qu’il y aura une diminution de la valeur des personnes.


Métiers susceptibles d'être remplacés par l'IA : facteurs, bijoutiers, bûcherons, agriculteurs, ouvriers d'usine, assureurs

J'ai lu que San Francisco, dans une certaine mesure, peut servir d'illustration à ce problème. Cette ville des USA a été choisie par l'élite technologique. En conséquence, l’économie de la ville vise à satisfaire les besoins de l’élite, mais les personnes qui ne sont pas liées à l’économie technologique connaissent d’énormes problèmes. Ils gagnent beaucoup moins et tous les prix dans la ville sont fixés comme pour les startups informatiques. Les gens ordinaires ne peuvent pas se permettre de telles dépenses, alors soit ils déménagent, soit ils rejoignent l'armée déjà immense des sans-abri.

Il existe cependant une fonctionnalité clé qui sauvera certaines professions. L’intelligence artificielle a besoin de conditions créées pour fonctionner. Par exemple, un robot aspirateur ne peut rouler que sur un sol lisse et surmonter de petites surfaces inégales. Ainsi, de nombreux métiers de base pourront tenir le coup aussi longtemps qu'il sera trop difficile et trop coûteux de créer leur remplacement artificiel. Par exemple, dans une pièce comportant de nombreuses portes, un robot de nettoyage a besoin soit de manipulateurs pour tourner les poignées de porte, soit de toutes les portes qui s'ouvrent automatiquement. Les deux sont assez chers, mais le Sarhat en visite d'Asie centrale a suffisamment de mains et de cerveaux pour manipuler une serpillère et une poignée de porte, mais il n'y a pas d'enregistrement et les exigences salariales sont réduites.

Troisième problème

Même une IA limitée a grandement stimulé le phénomène du travail indépendant. Les plateformes de recrutement et d’embauche de collaborateurs à distance prospèrent de plus en plus chaque année. Par exemple, selon les dernières statistiques, aux États-Unis, première économie mondiale, 55 millions de personnes travaillent en freelance.


Et c'est dans la génération actuelle, faites attention à l'illustration. La main-d’œuvre croissante n’aime pas s’asseoir dans un bureau. En conséquence, il y aura un changement dans l’organisation du travail. Les entreprises seront confrontées à des défis pour recruter et fidéliser leurs employés, car pourquoi consacrer votre vie à une seule entreprise lorsque vous êtes disponible en ligne et pouvez chercher du travail partout dans le monde.

Problème quatre

Un problème assez grave est l'inégalité sociale, déjà évoquée dans le problème numéro 2. Elle va s'aggraver. Je pense qu'à partir de l'article, vous avez deviné que pour réussir dans le nouveau monde, vous devez être intelligent et s'appeler par votre prénom. technologies modernes. Ce n’est un secret pour personne que les pauvres ont un accès plus difficile à l’éducation. En conséquence, les pauvres ne pourront pas franchir un nouveau niveau, car ils n'auront tout simplement pas la chance d'apprendre quelque chose d'utile, car pour bien penser, ils ont besoin d'années de formation intensive, et où l'obtenir quand vous il faut chercher de la nourriture.

La nouvelle société a besoin soit d’une main-d’œuvre bon marché, soit de décideurs intellectuels.

Problème cinq

Cela peut être formulé brièvement : qui est aux commandes ? Les personnes développant des systèmes d’IA auront une responsabilité particulière dans la mesure où elles apprendront à l’IA quelles données elle utilisera pour prendre des décisions. S'agira-t-il des lois de la robotique d'Asimov ou d'autres règles qui protègent une certaine couche de personnes.

Pourquoi l’intelligence artificielle est-elle une bonne chose ?

Les problèmes énumérés ci-dessus sont quelque peu intimidants, mais l’IA est une arme à double tranchant qui peut également aider.

Avantage 1

L'intelligence artificielle servira avec une poussée puissante pour le développement de nombreux domaines. Un bon exemple est la médecine. Aujourd’hui, au XXIe siècle, les médecins continuent de soigner de la même manière qu’il y a cent ans. Ils bourrent les manuels. C'est une mauvaise option, car aucun médecin ne peut mémoriser par cœur tous les symptômes de toutes les maladies. Les conséquences de telles erreurs peuvent être fatales. Le médecin local m’a assuré jusqu’au bout que les causes de la maladie de ma mère étaient le rhume et la fatigue, puisque tous les principaux symptômes étaient présents. Et ce n'est que lorsqu'il était trop tard que le bon diagnostic a été posé - Leucémie aiguë, une maladie assez difficile à reconnaître. Et dans cette situation, avoir une IA qui se souvient de toutes les maladies et symptômes et qui ne se fatigue jamais serait une solution.

Les mêmes changements peuvent se produire dans le domaine du droit, où les avocats et les juges doivent garder à l’esprit l’ensemble des lois, des précédents et des preuves.

Avantage 2

L'IA aidera à créer des expériences personnalisées. Ce point peut être mieux illustré en utilisant l’exemple de l’apprentissage. Aujourd’hui, les enseignants sont surchargés et physiquement incapables de prêter attention à tous les élèves. Mais chacun a son propre rythme pour apprendre de nouvelles matières. Les systèmes d'apprentissage basés sur l'IA surveillent la vitesse d'apprentissage, voient si l'élève se souvient bien ou mal du matériel, lit attentivement ou est distrait. Sur cette base, un rythme d'apprentissage individuel est construit et des exercices sont sélectionnés pour la consolidation.

Dans le même temps, il est plus facile pour les gens de comprendre du nouveau matériel avec l'aide de l'IA, car dans ce cas, la peur de l'erreur est considérablement réduite. Je peux être d'accord avec cette affirmation. Il est moralement plus facile de recevoir un bip d'indignation de l'ordinateur indiquant que l'exemple a été mal résolu que de résister au regard d'Olga Stepanovna, mon professeur de mathématiques.

L’IA sera capable d’accorder la même attention à tout le monde. Cela inclut tous les domaines, de l'éducation et de la médecine au choix d'une image à la mode (en fonction du type de corps, de la forme du visage et des tendances saisonnières) et à l'entraînement en salle de sport.

Avantage 3

Aujourd’hui déjà, notre monde regorge d’informations. Toutes les données sont collectées de n'importe où, à partir de conditions météorologiques et en terminant par le nombre de pas effectués par la personne.

L'intelligence artificielle ayant accès au big data pourra analyser ces données et rechercher une corrélation sur la manière dont le nombre d'étapes affecte la santé, mais pas de manière abstraite, mais en tenant compte de certaines conditions météorologiques. L'analyse du mouvement des flux de passagers contribuera à réduire les embouteillages et à réduire le nombre d'effondrements de transports aux heures de pointe. Bref, les données pouvant être analysées seront analysées et l'IA présentera ses conclusions.

Conclusion

Aujourd’hui, l’intelligence artificielle a démontré qu’elle est très efficace pour résoudre uniquement les tâches pour lesquelles elle a été formée, et qu’elle est même meilleure dans ce domaine que les gens ordinaires. Un smartphone peut facilement battre un grand maître même sans reine, une IA japonaise qui a écrit un court roman a atteint la finale d'un concours littéraire et ses frères écrivent et interprètent de la bonne musique.

Malheureusement, l’IA en est encore à ses balbutiements. Il ne peut faire que ce qu'on lui a appris : analyser de nombreuses œuvres littéraires ou musicales et synthétiser quelque chose qui lui est propre, ou mémoriser des millions de mouvements et choisir le meilleur.

Les principaux problèmes qui entravent le développement d'une IA limitée sont le manque d'algorithmes universels pour la connaissance du monde et des infrastructures qui l'entourent (de nombreux capteurs sont nécessaires pour collecter des données, les voitures autonomes nécessitent des routes avec un marquage idéal et les assistants vocaux ont besoin de meilleurs algorithmes pour comprendre les demandes du propriétaire).

Pour l’émergence d’une intelligence artificielle forte, nous avons besoin d’une puissance de calcul et d’algorithmes de traitement de l’information fondamentalement différents, qui imitent ce que les gens appellent l’intuition. Dans un avenir proche, nous verrons probablement diverses versions d’IA limitée avec des algorithmes de comportement intégrés pour toutes sortes de conditions.

L'intelligence artificielle a créé un réseau de neurones 15 décembre 2017

Nous avons atteint le point où l’intelligence artificielle crée son propre réseau neuronal. Même si beaucoup de gens pensent que c'est la même chose. Mais en fait, tout n'est pas si simple et nous allons maintenant essayer de comprendre de quoi il s'agit et qui peut créer qui.


Les ingénieurs de la division Google Brain ont fait une démonstration d'AutoML ce printemps. Cette intelligence artificielle peut produire sa propre IA unique sans intervention humaine. Il s’est avéré qu’AutoML a pu créer pour la première fois NASNet, un système de vision par ordinateur. Cette technologie est sérieusement supérieure à tous les analogues créés auparavant par l'homme. Ce système basé sur l'intelligence artificielle peut être un excellent assistant dans le développement, par exemple, de voitures autonomes. Cela s'applique également à la robotique - les robots pourront atteindre un tout nouveau niveau.

AutoML est développé à l'aide d'un système d'apprentissage par renforcement unique. Nous parlons d'un gestionnaire de réseaux de neurones qui développe de manière indépendante des réseaux de neurones complètement nouveaux destinés à certains tâches spécifiques. Dans le cas que nous avons indiqué, AutoML vise à produire un système qui reconnaît le plus précisément possible les objets d'une vidéo en temps réel.

L'intelligence artificielle elle-même a pu former un nouveau réseau neuronal, surveiller les erreurs et corriger le travail. Le processus de formation a été répété plusieurs fois (des milliers de fois) jusqu'à ce que le système soit opérationnel. Fait intéressant, il a pu contourner tous les réseaux neuronaux similaires actuellement disponibles, mais développés et entraînés par des humains.

Dans le même temps, AutoML évalue les performances de NASNet et utilise ces informations pour améliorer le réseau des filiales ; ce processus est répété des milliers de fois. Lorsque les ingénieurs ont testé NASNet sur des ensembles d’images ImageNet et COCO, il a surpassé tous les systèmes de vision par ordinateur existants.

Google a officiellement déclaré que NASNet reconnaît avec une précision de 82,7 %. Le résultat est 1,2% plus élevé que le précédent record, établi par des chercheurs de Momenta et des spécialistes d'Oxford au début de l'automne de cette année. NASNet est 4 % plus efficace que ses pairs avec une précision moyenne de 43,1 %.

Il existe également une version simplifiée de NASNet, adaptée aux plateformes mobiles. Il surpasse ses analogues d'un peu plus de trois pour cent. Dans un avenir proche, il sera possible d'utiliser ce système pour la production de voitures autonomes, pour lesquelles la présence de vision par ordinateur est importante. AutoML continue de produire de nouveaux réseaux de neurones descendants, s'efforçant de conquérir des sommets encore plus élevés.

Bien entendu, cela soulève des questions éthiques liées aux préoccupations concernant l’IA : et si AutoML créait des systèmes à une vitesse telle que la société ne peut tout simplement pas suivre le rythme ? Toutefois plusieurs grandes entreprises tentent de prendre en compte les préoccupations de sécurité de l’IA. Par exemple, Amazon, Facebook, Apple et quelques autres sociétés sont membres du Partenariat sur l’IA au profit des personnes et de la société. L'Institute of Electrical and Electrical Engineers (IEE) a proposé des normes éthiques pour l'IA, et DeepMind, par exemple, a annoncé la création d'un groupe qui traitera des questions morales et éthiques liées aux applications de l'intelligence artificielle.

Cependant, de nombreuses grandes entreprises tentent de prendre en compte les préoccupations de sécurité de l’IA. Bien entendu, cela soulève des questions éthiques liées aux préoccupations concernant l’IA : et si AutoML créait des systèmes à une vitesse telle que la société ne peut tout simplement pas suivre le rythme ? L'Institute of Electrical and Electrical Engineers (IEE) a proposé des normes éthiques pour l'IA, et DeepMind, par exemple, a annoncé la création d'un groupe qui traitera des questions morales et éthiques liées aux applications de l'intelligence artificielle. Par exemple, Amazon, Facebook, Apple et quelques autres sociétés sont membres du Partenariat sur l’IA au profit des personnes et de la société.

Qu’est-ce que l’intelligence artificielle ?

L’auteur du terme « intelligence artificielle » est John McCarthy, inventeur du langage Lisp, fondateur de la programmation fonctionnelle et lauréat du prix Turing pour ses énormes contributions au domaine de la recherche sur l’intelligence artificielle.
L'intelligence artificielle est un moyen de créer un ordinateur, un robot contrôlé par ordinateur ou un programme capable de penser aussi intelligemment qu'un humain.

La recherche dans le domaine de l'IA est menée en étudiant les capacités mentales humaines, puis les résultats de cette recherche servent de base au développement de programmes et de systèmes intelligents.

Qu'est-ce qu'un réseau de neurones ?

L’idée d’un réseau de neurones est d’assembler une structure complexe à partir d’éléments très simples. Il est peu probable qu’une seule partie du cerveau puisse être considérée comme intelligente, mais les gens réussissent généralement étonnamment bien aux tests de QI. Néanmoins, jusqu'à présent, l'idée de créer un esprit « à partir de rien » a généralement été ridiculisée : la blague sur un millier de singes avec des machines à écrire a déjà cent ans, et si l'on veut, la critique des réseaux de neurones peut même se retrouve chez Cicéron, qui suggérait sarcastiquement de lancer des jetons avec des lettres en l'air jusqu'à ce que vous ayez le visage bleu, afin que tôt ou tard, un texte significatif se produise. Cependant, au 21ème siècle, il s'est avéré que les classiques étaient sarcastiques en vain : c'est une armée de singes avec des jetons qui, avec de la persévérance, peuvent conquérir le monde.
En fait, un réseau de neurones peut être assemblé même à partir de boîtes d'allumettes : il s'agit simplement d'un ensemble de règles simples par lesquelles les informations sont traitées. Un « neurone artificiel », ou perceptron, n’est pas un appareil spécial, mais simplement quelques opérations arithmétiques.

Le fonctionnement du perceptron est on ne peut plus simple : il reçoit plusieurs nombres initiaux, multiplie chacun par la « valeur » de ce nombre (plus de détails ci-dessous), l'additionne et, selon le résultat, produit 1 ou -1. Par exemple, nous photographions un champ clair et montrons à notre neurone un point sur cette image, c'est-à-dire que nous lui envoyons des coordonnées aléatoires sous forme de deux signaux. Et puis nous demandons : « Cher neurone, est-ce le ciel ou la terre ? » «Moins un», répond le mannequin en regardant sereinement le cumulus. "Il est clair que c'est la terre."

« Montrer le ciel du doigt » est l'activité principale du perceptron. Vous ne pouvez pas vous attendre à une quelconque précision de sa part : vous pouvez tout aussi facilement lancer une pièce de monnaie. La magie commence à étape suivante, ce qu’on appelle l’apprentissage automatique. Nous connaissons la bonne réponse, ce qui signifie que nous pouvons l'écrire dans notre programme. Il s'avère donc que pour chaque supposition incorrecte, le perceptron reçoit littéralement une pénalité, et pour une supposition correcte, un bonus : la « valeur » des signaux entrants augmente ou diminue. Après cela, le programme est exécuté en utilisant la nouvelle formule. Tôt ou tard, le neurone « comprendra » inévitablement que la terre sur la photographie est en bas et le ciel est au-dessus, c'est-à-dire qu'il commencera simplement à ignorer le signal du canal par lequel les coordonnées x lui sont transmises. Si vous glissez une autre photo à un robot aussi sophistiqué, il ne trouvera peut-être pas la ligne d’horizon, mais il ne confondra certainement pas le haut avec le bas.

Dans le vrai travail, les formules sont un peu plus compliquées, mais le principe reste le même. Le perceptron ne peut accomplir qu’une seule tâche : prendre des nombres et les regrouper en deux piles. La chose la plus intéressante commence lorsqu'il y a plusieurs de ces éléments, car les nombres entrants peuvent être des signaux provenant d'autres « éléments de base » ! Disons qu'un neurone essaiera de distinguer les pixels bleus des pixels verts, le second continuera à bricoler les coordonnées et le troisième essaiera de juger lequel de ces deux résultats est le plus proche de la vérité. Si vous placez plusieurs neurones sur des pixels bleus à la fois et résumez leurs résultats, vous obtiendrez une couche entière dans laquelle les « meilleurs étudiants » recevront des bonus supplémentaires. Ainsi, un réseau assez répandu peut parcourir toute une montagne de données et prendre en compte toutes ses erreurs.

Un réseau de neurones peut être créé à l'aide de boîtes d'allumettes - vous aurez alors une astuce dans votre arsenal que vous pourrez utiliser pour divertir les invités lors des fêtes. Les éditeurs de MirF l’ont déjà essayé et reconnaissent humblement la supériorité de l’intelligence artificielle. Apprenons à la matière irrationnelle à jouer au jeu "11 bâtons". Les règles sont simples : il y a 11 matchs sur la table, et à chaque coup vous pouvez en prendre un ou deux. Celui qui a pris le dernier gagne. Comment jouer à cela contre « l’ordinateur » ?

Très simple.

Prenez 10 boîtes ou tasses. Sur chacun nous écrivons un nombre de 2 à 11.

Nous mettons deux cailloux dans chaque boîte - noir et blanc. Vous pouvez utiliser n’importe quel objet, à condition qu’il soit différent les uns des autres. Ça y est, nous avons un réseau de dix neurones !

Le réseau neuronal passe toujours en premier. Tout d’abord, regardez combien d’allumettes il reste et prenez une boîte avec ce numéro. Au premier coup, ce sera la case numéro 11. Prenez n'importe quel caillou dans la boîte souhaitée. Vous pouvez fermer les yeux ou lancer une pièce de monnaie, l'essentiel est d'agir au hasard.
Si la pierre est blanche, le réseau neuronal décide de prendre deux correspondances. Si noir - un. Placez un caillou à côté de la boîte pour ne pas oublier quel « neurone » a pris la décision. Après cela, la personne marche - et ainsi de suite jusqu'à la fin des allumettes.

Vient maintenant la partie amusante : apprendre. Si le réseau gagne la partie, alors il doit être récompensé : lancez un caillou supplémentaire de la même couleur tombé pendant le jeu dans les « neurones » qui ont participé à ce jeu. Si le réseau perd, prenez la dernière boîte utilisée et retirez-en la pierre infructueuse. Il se peut que la case soit déjà vide, alors le « dernier » neurone est considéré comme le précédent. Lors du prochain match, frapper Boîtes vides, le réseau neuronal abandonnera automatiquement.

C'est tout! Jouez à quelques jeux comme celui-ci. Au début, vous ne remarquerez rien de suspect, mais après chaque victoire, le réseau effectuera de plus en plus de mouvements réussis - et après environ une douzaine de parties, vous réaliserez que vous avez créé un monstre que vous ne pouvez pas battre.

Sources:

Cette année, Yandex a lancé assistant vocal"Alice". Le nouveau service permet à l'utilisateur d'écouter les actualités et la météo, d'obtenir des réponses aux questions et de communiquer simplement avec le bot. "Alice" parfois il devient arrogant, semble parfois presque raisonnable et humainement sarcastique, mais n'arrive souvent pas à comprendre sur quoi on lui pose des questions et finit dans une flaque d'eau.

Tout cela a donné lieu non seulement à une vague de plaisanteries, mais aussi à un nouveau cycle de discussions sur le développement de l'intelligence artificielle. Aujourd'hui, des informations sur les réalisations des algorithmes intelligents arrivent presque tous les jours, et l'apprentissage automatique est considéré comme l'un des domaines les plus prometteurs auxquels vous pouvez vous consacrer.

Pour clarifier les principales questions concernant l'intelligence artificielle, nous avons discuté avec Sergei Markov, spécialiste de l'intelligence artificielle et des méthodes d'apprentissage automatique, auteur de l'un des programmes d'échecs nationaux les plus puissants, SmarThink, et créateur du projet XXII Century.

Sergueï Markov,

spécialiste de l'intelligence artificielle

Démystifier les mythes sur l’IA

Alors qu’est-ce que « l’intelligence artificielle » ?

Le concept d’« intelligence artificielle » a porté malheur, dans une certaine mesure. Originaire de la communauté scientifique, il a finalement pénétré la littérature fantastique et, à travers elle, la culture populaire, où il a subi de nombreux changements, a acquis de nombreuses interprétations et a finalement été complètement mystifié.

C’est pourquoi nous entendons souvent des déclarations comme celle-ci de la part de non-spécialistes : « L’IA n’existe pas », « L’IA ne peut pas être créée ». Une mauvaise compréhension de la nature de la recherche sur l'IA conduit facilement les gens à d'autres extrêmes - par exemple, les systèmes d'IA modernes sont attribués à la présence de la conscience, du libre arbitre et des motivations secrètes.

Essayons de séparer les mouches des côtelettes.

En science, l’intelligence artificielle fait référence à des systèmes conçus pour résoudre des problèmes intellectuels.

À son tour, une tâche intellectuelle est une tâche que les gens résolvent en utilisant leur propre intelligence. Notons que dans ce cas, les experts évitent délibérément de définir le concept d’« intelligence », puisqu’avant l’avènement des systèmes d’IA, le seul exemple d’intelligence était l’intelligence humaine, et définir le concept d’intelligence à partir d’un seul exemple revient à essayer tracer une ligne droite passant par un seul point. De telles lignes pourraient exister à volonté, ce qui signifie que le débat sur le concept d’intelligence pourrait durer des siècles.

Intelligence artificielle « forte » et « faible »

Les systèmes d'IA sont divisés en deux grands groupes.

Intelligence artificielle appliquée(le terme « IA faible » ou « IA étroite » est également utilisé, dans la tradition anglaise – IA faible/appliquée/étroite) est une IA conçue pour résoudre un problème intellectuel particulier ou un petit ensemble de problèmes. Cette classe comprend les systèmes permettant de jouer aux échecs, au Go, à la reconnaissance d'images, à la parole, à la prise de décision concernant l'octroi ou non d'un prêt bancaire, etc.

Contrairement à l'IA appliquée, le concept est introduit intelligence artificielle universelle(également « strong AI », en anglais - strong AI/Artificial General Intelligence) - c'est-à-dire une IA hypothétique (pour l'instant) capable de résoudre n'importe quel problème intellectuel.

Souvent, les gens, sans connaître la terminologie, assimilent l’IA à une IA forte, c’est pourquoi les jugements sont fondés sur l’esprit « l’IA n’existe pas ».

L’IA forte n’existe pas encore. Presque toutes les avancées que nous avons constatées au cours de la dernière décennie en matière d’IA concernent les systèmes d’application. Ces succès ne doivent pas être sous-estimés, car les systèmes appliqués sont dans certains cas capables de résoudre les problèmes intellectuels mieux que l'intelligence humaine universelle.

Je pense que vous avez remarqué que le concept d'IA est assez large. Disons que le calcul mental est aussi une tâche intellectuelle, et cela signifie que toute machine à calculer sera considérée comme un système d'IA. Et les factures ? Abaque? Mécanisme d’Anticythère ? En effet, tous ces systèmes sont formellement, bien que primitifs, des systèmes d’IA. Cependant, généralement, en appelant un système un système d’IA, on souligne ainsi la complexité du problème résolu par ce système.

Il est bien évident que la division des tâches intellectuelles en tâches simples et complexes est très artificielle, et nos idées sur la complexité de certaines tâches évoluent progressivement. La machine à calculer mécanique était un miracle de la technologie au XVIIe siècle, mais aujourd'hui, les gens qui ont été exposés à des mécanismes beaucoup plus complexes depuis l'enfance ne peuvent plus s'en laisser impressionner. Lorsque les voitures jouant au Go ou les voitures autonomes cesseront d’étonner le public, il y aura probablement des gens qui grimaceront parce que quelqu’un classera de tels systèmes comme IA.

« Excellents Robots » : à propos des capacités d’apprentissage de l’IA

Une autre idée fausse et amusante est que les systèmes d’IA doivent avoir la capacité de s’auto-apprendre. D'une part, ce n'est pas une propriété nécessaire des systèmes d'IA : il existe de nombreux systèmes étonnants qui ne sont pas capables de s'auto-apprendre, mais qui résolvent néanmoins de nombreux problèmes mieux que le cerveau humain. D’un autre côté, certaines personnes ne savent tout simplement pas que l’auto-apprentissage est une propriété que de nombreux systèmes d’IA ont acquise il y a plus de cinquante ans.

Lorsque j'ai écrit mon premier programme d'échecs en 1999, l'auto-apprentissage était déjà un domaine tout à fait courant dans ce domaine : les programmes pouvaient mémoriser les positions dangereuses, ajuster les variations d'ouverture à leur convenance et réguler le style de jeu, en s'adaptant à l'adversaire. Bien entendu, ces programmes étaient encore très loin d’Alpha Zero. Cependant, même des systèmes qui apprenaient un comportement sur la base d’interactions avec d’autres systèmes grâce à des expériences dites « d’apprentissage par renforcement » existaient déjà. Cependant, pour une raison inexplicable, certains pensent encore que la capacité d’auto-apprentissage est l’apanage de l’intelligence humaine.

Apprentissage automatique, entier discipline scientifique, traite des processus d'apprentissage des machines pour résoudre certains problèmes.

Il existe deux grands pôles de l’apprentissage automatique : l’apprentissage supervisé et l’apprentissage non supervisé.

À formation avec un professeur la machine dispose déjà d'un certain nombre de solutions conditionnellement correctes pour un certain ensemble de cas. La tâche de la formation dans ce cas est d'apprendre à la machine, sur la base des exemples disponibles, à prendre les bonnes décisions dans d'autres situations inconnues.

L'autre extrême est apprendre sans professeur. Autrement dit, la machine est placée dans une situation où les décisions correctes sont inconnues, seules les données sont disponibles sous forme brute et non étiquetée. Il s'avère que dans de tels cas, vous pouvez obtenir un certain succès. Par exemple, vous pouvez apprendre à une machine à identifier les relations sémantiques entre les mots d’une langue en se basant sur l’analyse d’un très grand nombre de textes.

Un type d’apprentissage supervisé est l’apprentissage par renforcement. L'idée est que le système d'IA agit comme un agent placé dans un environnement simulé dans lequel il peut interagir avec d'autres agents, par exemple avec des copies de lui-même, et recevoir des commentaires de l'environnement via une fonction de récompense. Par exemple, un programme d'échecs qui joue avec lui-même, ajustant progressivement ses paramètres et renforçant ainsi progressivement son propre jeu.

L'apprentissage par renforcement est un domaine assez vaste, avec de nombreuses techniques intéressantes utilisées, allant des algorithmes évolutionnaires à l'optimisation bayésienne. Les dernières avancées en matière d’IA pour les jeux visent à améliorer l’IA grâce à l’apprentissage par renforcement.

Risques du développement technologique : faut-il avoir peur du « Doomsday » ?

Je ne fais pas partie des alarmistes de l’IA, et en ce sens je ne suis en aucun cas le seul. Par exemple, le créateur du cours de Stanford sur l'apprentissage automatique, Andrew Ng, compare le problème du danger de l'IA avec le problème de la surpopulation de Mars.

En effet, il est probable que des humains coloniseront Mars dans le futur. Il est également probable que tôt ou tard il y ait un problème de surpopulation sur Mars, mais on ne sait pas vraiment pourquoi nous devrions nous attaquer à ce problème maintenant ? Yann LeCun, le créateur des réseaux de neurones convolutifs, et son patron Mark Zuckerberg, ainsi que Yoshua Benyo, un homme en grande partie grâce aux recherches duquel les réseaux de neurones modernes sont capables de résoudre des problèmes complexes dans le domaine du traitement de texte, sont d'accord avec Ng.

Il faudra probablement plusieurs heures pour présenter mon point de vue sur ce problème, je me concentrerai donc uniquement sur les points principaux.

1. VOUS NE POUVEZ PAS LIMITER LE DÉVELOPPEMENT DE L’IA

Les alarmistes considèrent les risques associés à l’impact potentiellement destructeur de l’IA, tout en ignorant les risques associés à la tentative de limiter, voire d’arrêter les progrès dans ce domaine. La puissance technologique de l’humanité augmente à un rythme extrêmement rapide, conduisant à un effet que j’appelle « dévaloriser l’apocalypse ».

Il y a 150 ans, malgré tous ses désirs, l'humanité ne pouvait causer de dommages irréparables ni à la biosphère ni à elle-même en tant qu'espèce. Pour mettre en œuvre le scénario catastrophique d’il y a 50 ans, il aurait fallu concentrer toute la puissance technologique puissances nucléaires. Demain pour amener le monde catastrophe causée par l'homme une petite poignée de fanatiques peut suffire.

Notre puissance technologique croît beaucoup plus rapidement que la capacité de l’intelligence humaine à contrôler cette puissance.

À moins que l’intelligence humaine, avec ses préjugés, son agressivité, ses illusions et ses limites, ne soit remplacée par un système capable de prendre de meilleures décisions (qu’il s’agisse de l’IA ou, ce qui me semble plus probable, de l’intelligence humaine, technologiquement améliorée et combinée avec des machines en un seul système) , nous pouvons attendre une catastrophe mondiale.

2. créer une superintelligence est fondamentalement impossible

Il existe une idée selon laquelle l’IA du futur sera certainement une superintelligence, supérieure aux humains encore plus que les humains ne sont supérieurs aux fourmis. Dans ce cas, j'ai peur de décevoir également les optimistes technologiques - notre Univers contient un certain nombre de limitations physiques fondamentales qui, apparemment, rendront impossible la création d'une superintelligence.

Par exemple, la vitesse de transmission du signal est limitée par la vitesse de la lumière, et à l'échelle de Planck apparaît l'incertitude de Heisenberg. Cela conduit à la première limite fondamentale - la limite de Bremermann, qui introduit des restrictions sur vitesse maximum calculs pour un système autonome d'une masse m donnée.

Une autre limite est associée au principe de Landauer, selon lequel une quantité minimale de chaleur est générée lors du traitement d'un bit d'information. Des calculs trop rapides provoqueront un échauffement inacceptable et une destruction du système. En fait, les processeurs modernes sont moins de mille fois en retard par rapport à la limite de Landauer. Il semblerait que 1000, c'est beaucoup, mais un autre problème est que de nombreuses tâches intellectuelles appartiennent à la classe de difficulté EXPTIME. Cela signifie que le temps nécessaire pour les résoudre est une fonction exponentielle de la taille du problème. Accélérer le système plusieurs fois ne donne qu'une augmentation constante de « l'intelligence ».

En général, il existe des raisons très sérieuses de croire qu'une IA puissante et super intelligente ne fonctionnera pas, même si, bien sûr, le niveau d'intelligence humaine pourrait bien être dépassé. À quel point est-ce dangereux ? Probablement pas grand-chose.

Imaginez que vous commenciez soudainement à penser 100 fois plus vite que les autres. Cela signifie-t-il que vous pourrez facilement persuader n’importe quel passant de vous donner son portefeuille ?

3. nous nous inquiétons des mauvaises choses

Malheureusement, à la suite des spéculations alarmistes sur les craintes du public, évoquées sur « The Terminator » et le fameux HAL 9000 de Clark et Kubrick, on assiste à un déplacement de l'accent dans le domaine de la sécurité de l'IA vers l'analyse des événements improbables. , mais des scénarios efficaces. Dans le même temps, les dangers réels sont perdus de vue.

Toute technologie suffisamment complexe qui aspire à occuper une place importante dans notre paysage technologique comporte certainement des risques spécifiques. De nombreuses vies ont été détruites par les machines à vapeur – dans les secteurs de la fabrication, des transports, etc. – avant que des réglementations et des mesures de sécurité efficaces ne soient élaborées.

Si nous parlons de progrès dans le domaine de l’IA appliquée, nous pouvons prêter attention au problème connexe de ce qu’on appelle le « tribunal secret numérique ». De plus en plus d’applications d’IA prennent des décisions sur des questions affectant la vie et la santé des personnes. Cela inclut les systèmes de diagnostic médical et, par exemple, les systèmes qui prennent des décisions dans les banques concernant l'octroi ou non d'un prêt à un client.

Dans le même temps, la structure des modèles utilisés, les ensembles de facteurs utilisés et d'autres détails de la procédure de prise de décision sont cachés comme des secrets commerciaux à la personne dont le sort est en jeu.

Les modèles utilisés peuvent fonder leurs décisions sur les opinions d'enseignants experts qui ont commis des erreurs systématiques ou qui avaient certains préjugés - raciaux, sexuels.

L’IA formée sur les décisions de tels experts reproduira fidèlement ces biais dans ses décisions. Après tout, ces modèles peuvent contenir des défauts spécifiques.

Peu de gens s’attaquent à ces problèmes aujourd’hui, car, bien entendu, le déclenchement d’une guerre nucléaire par SkyNet est bien plus spectaculaire.

Les réseaux de neurones comme « tendance chaude »

D'une part, les réseaux de neurones sont l'un des plus modèles vintage, utilisé pour créer des systèmes d’IA. Apparus initialement grâce à l’approche bionique, ils se sont rapidement échappés de leurs prototypes biologiques. La seule exception ici concerne les réseaux de neurones pulsés (cependant, ils n'ont pas encore trouvé d'application généralisée dans l'industrie).

Les progrès des dernières décennies sont associés au développement des technologies d'apprentissage profond - une approche dans laquelle les réseaux de neurones sont collectés à partir de grande quantité couches, dont chacune est construite sur la base de certains modèles réguliers.

Outre la création de nouveaux modèles de réseaux neuronaux, des progrès importants ont également été réalisés dans le domaine des technologies d'apprentissage. Aujourd’hui, les réseaux de neurones ne sont plus enseignés à l’aide de processeurs centraux d’ordinateurs, mais à l’aide de processeurs spécialisés capables d’effectuer rapidement des calculs matriciels et tensoriels. Le type le plus courant de tels appareils aujourd'hui est celui des cartes vidéo. Cependant, le développement de dispositifs encore plus spécialisés pour la formation des réseaux neuronaux est en cours.

En général, bien entendu, les réseaux de neurones constituent aujourd'hui l'une des principales technologies dans le domaine de l'apprentissage automatique, à laquelle nous devons la solution de nombreux problèmes auparavant résolus de manière insatisfaisante. D’un autre côté, il faut bien sûr comprendre que les réseaux de neurones ne sont pas une panacée. Pour certaines tâches, ils sont loin d’être l’outil le plus efficace.

Alors, à quel point les robots d’aujourd’hui sont-ils vraiment intelligents ?

Tout est relatif. Comparées à la technologie de 2000, les réalisations actuelles ressemblent à un véritable miracle. Il y aura toujours des gens qui aimeront se plaindre. Il y a 5 ans, ils parlaient de toutes leurs forces du fait que les machines ne gagneraient jamais contre les gens de Go (ou, du moins, elles ne gagneraient pas de sitôt). Ils disaient qu'une machine ne serait jamais capable de dessiner un tableau à partir de zéro, alors qu'aujourd'hui les gens sont pratiquement incapables de distinguer les peintures créées par des machines de celles d'artistes inconnus. À la fin de l'année dernière, des machines ont appris à synthétiser une parole pratiquement impossible à distinguer de la parole humaine. dernières années La musique créée par les machines ne dessèche pas les oreilles.

Voyons ce qui se passe demain. Je suis très optimiste quant à ces applications de l’IA.

Des orientations prometteuses : par où commencer à se plonger dans le domaine de l’IA ?

je te conseillerais d'essayer bon niveau maîtriser l'un des frameworks de réseaux neuronaux les plus populaires et l'un des langages de programmation les plus populaires dans le domaine de l'apprentissage automatique (la combinaison la plus populaire aujourd'hui est TensorFlow + Python).

Après avoir maîtrisé ces outils et idéalement avoir de solides bases dans le domaine des statistiques mathématiques et de la théorie des probabilités, vous devez orienter vos efforts vers le domaine qui vous intéressera le plus personnellement.

L’intérêt pour le sujet de votre travail est l’une de vos aides les plus importantes.

Le besoin de spécialistes de l'apprentissage automatique existe dans divers domaines - en médecine, dans le secteur bancaire, dans les sciences, dans l'industrie manufacturière. Aujourd'hui, un bon spécialiste dispose donc d'un choix plus large que jamais. Les avantages potentiels de l’une de ces industries me semblent insignifiants comparés au fait que vous apprécierez votre travail.