Saturday 11 January 2014

2a. Turing, A.M. (1950) Computing Machinery and Intelligence

Turing, A.M. (1950) Computing Machinery and IntelligenceMind 49 433-460 

Bertrand, J. M. (1987). Test de Turing: jeu d'imitation ou test d'intelligence?. Quaderni, 1(1), 35-45.

I propose to consider the question, "Can machines think?" This should begin with definitions of the meaning of the terms "machine" and "think." The definitions might be framed so as to reflect so far as possible the normal use of the words, but this attitude is dangerous, If the meaning of the words "machine" and "think" are to be found by examining how they are commonly used it is difficult to escape the conclusion that the meaning and the answer to the question, "Can machines think?" is to be sought in a statistical survey such as a Gallup poll. But this is absurd. Instead of attempting such a definition I shall replace the question by another, which is closely related to it and is expressed in relatively unambiguous words. The new form of the problem can be described in terms of a game which we call the 'imitation game." It is played with three people, a man (A), a woman (B), and an interrogator (C) who may be of either sex. The interrogator stays in a room apart front the other two. The object of the game for the interrogator is to determine which of the other two is the man and which is the woman. He knows them by labels X and Y, and at the end of the game he says either "X is A and Y is B" or "X is B and Y is A." The interrogator is allowed to put questions to A and B. We now ask the question, "What will happen when a machine takes the part of A in this game?" Will the interrogator decide wrongly as often when the game is played like this as he does when the game is played between a man and a woman? These questions replace our original, "Can machines think?"






résumé langue anglaise:







1Le modèle Turing (vidéo, langue française)
2. Video about Turing's workAlan Turing: Codebreaker and AI Pioneer 
3. Two-part video about his lifeThe Strange Life of Alan Turing: Part I and Part 2




32 comments:

  1. Dans son article, Turing substitue la question "Can machine think?" par celle du jeu de l'imitation, est-ce que l'être humain peut faire la différence entre un homme et une machine. J'imagine que Turing adopte un point de vue scientifique sur la question "Can machine think?". En effet, cette question, dans sa formulation, nous rapporte au cogito ergo sum de Descartes. Dans cette situation, cette réponse appartient à la machine elle-même, celle-ci peut se prouver son existence mais me le prouvait à moi, pauvre humain, lui sera impossible. Tu as beau me dire que tu penses, je n'ai aucune preuve de ce que tu m'avances. C'est ici qu'opère le glissement vers le jeu de l'imitation. Selon Turing, l'imitation, à la manière du modèle, constitue une preuve. La machine peut penser si elle est capable d'imiter l'être humain (en tout cas, cela semble être le seul type de preuve à disposition). La machine est conçue comme un système de traitement avec une porte d'entrée et une porte de sortie. Elle lit les informations issues de l'environnement et y répond de la même manière que le fait un être humain. Le chemin entre la porte d'entrée et la porte de sortie nous reste inconnu. Le computationnalisme serait l'hypothèse à considérer pour retracer ce chemin.

    ReplyDelete
  2. Oui, le TT est basé sur le problème des autres esprits qui tombe dans les incertitudes de Descartes.

    Mais, malgré le titre (un peu ironique), le TT n'est ni un jeu, ni de l'imitation.

    Quand on fait la rétroingénierie du mécanisme causal du coeur, ce n'est pas un je d'imitation. C'est la générations des capacités du coeur. Idem pour le TT et le cerveau (ou au moins ses capacités cognitives plutôt que végétatives).

    Descartes nous rappelle qu'on n'a pas de la certitude pour les lois de la science, donc idem dour la rétroingénierie.

    Et le TT est equivalent au problème des autres esprits: On n'est pas plus (ou moins) sûr concernant l'esprit d'autrui, que ça soit un humain ou un robot.

    ReplyDelete
    Replies
    1. Pourtant un bon nombre d'informaticiens et de scientifiques semblent croire qu'une pauvre imitation soit suffisante pour déclarer le TT vaincu:

      http://m.bbc.com/news/technology-27762088

      J'ai l'impression que le Turing Test devrait être mieux défini dans la communauté scientifique. Je crois pas qu'ont puissent affirmer que le T2 ait été passé dans le cas de cet article.

      Delete
    2. Je suis d'accord avec toi. Formellement, une machine prise pour un humain réussit le TT. Mais ça ne va pas nécessairement dire que c'est une machine intelligente. Si j’ai bien compris l’article de Turing, le TT est conçu pour tester le niveau d’équivalence du comportement ou de raisonnement d’une machine à celui d’un humain. Sauf qu’un « chatbot », même s’il est très bien fait, reste toujours un « chatbot » et n’a rien à voir avec une machine capable à penser.

      Delete
    3. Voici un autre article sur le même sujet, si ça vous intéresse... http://www.newyorker.com/tech/elements/what-comes-after-the-turing-test

      Delete
  3. Quand Turing traite de l'éducation des programmes comme façon d’accélérer leur perfectionnement (au lieu d'inscrire manuellement toutes les réponses aux situations dans lesquelles il pourra subséquemment se retrouver), avait-il pensé à la possibilité de programmer le logiciel pour qu'il apprenne de façon autonome (c'est-à-dire sans qu'il ait besoin d'un ''professeur'' pour lui inculquer les apprentissages nécessaire à son évolution) ?

    Il me semble que si une telle chose est possible, elle serait beaucoup plus efficace. Et c'est sans prendre en compte la possibilité de mettre en relation plusieurs de ces programmes autonomes qui pourraient se nourrir réciproquement...

    ReplyDelete
  4. J’ai été impressionné par la partie 7 de Turing « Learning machines ». Particulièrement, par son idée de ne pas essayer à reproduire une cognition humaine d’adulte, mais celle d’un enfant. « Instead of trying to produce a programme to simulate the adult mind, why not rather try to produce one which simulates the child's? » Je trouve que c’est une bonne piste afin de comprendre le mécanisme interne de la capacité mentale. Un algorithme d’apprentissage qui permet d’acquérir les nouvelles connaissances et même développer les nouvelles capacités, comme le langage. La question reste à définir un ensemble minimal de capacités qui doivent être programmées, dites les capacités innées, qui donnent suite au développent mentale. Dans ce point de vue, je trouve intéressent l’idée de NELL (Never-Ending Learning) système (http://rtw.ml.cmu.edu/rtw) qui tente de «lire» les textes trouvés sur le web afin de créer sa propre base de données à partir des faits retrouvés et compilés. La simulation de l’acquisition du langage par un bébé humain est aussi intéressante: http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0038236. Même si cela ne résout par le problème général de la compréhension de la cognition, au moins, cela permet peut-être de mettre en peu de lumière sur certains processus internes de la capacité mentale….

    ReplyDelete
  5. L'initiative du NELL est vraiment intéressante en ce qui a trait à la démonstration de la possibilité de donner une autonomie à un programme, mais force est de reconnaître que bien qu'il compile une somme effarante de données, il ne semble pas en retenir une grande compréhension. Il semble être capable de faire certaines associations, mais il ne semble pas comprendre ce qui se cache derrière les expressions ainsi liées. Il est vrai que la musique turque est un hobby, mais cet énoncé n'a pas besoin d'être vérifié empiriquement par des milliers d’occurrences corrélatives pour être établi. Il est plus simple de s'en référer au sens et/ou à la référence de ces deux expressions, ce que le programme ne semble pas en mesure de faire. Il est aussi formaté pour faire seulement des énoncés prédicatifs (S-est-P), ce qui entrave la possibilité de faire des jugement plus complexes.

    ReplyDelete
    Replies
    1. Je suis d'accord avec toi. Il ne s'agit pas d'intelligence artificielle en plein sens de ce mot. Il s’agit tout simplement d’une tentative de la modélisation de certains algorithmes hypothétiquement impliqué dans notre faculté mentale. La façon dont NELL recueille les données est différente de celle dont les humains le font. Sauf que pour se référer au sens du mot, il faut d'abord bien identifier son sens. Il ne me semble pas qu'un humain identifie le sens du mot isolé, hors de tout contexte. Et même après avoir identifié le sens, un humain continue à vérifier le sens en s’adressant aux contextes divers et se corriger éventuellement... Et oui, il y a des limites. Certainement. Mais au moins cette direction me semble intéressante.

      Delete
  6. C’est fascinant comme la machine peut duper l’être humain avec certaines réponses bien établies qu’un être humain serait susceptible de penser. La question ‘’Can machine think ?’’ est difficile à répondre puisqu’elle a été programmé pour donner des réponses similaires à l’être humain, donc différencier une machine de l’humain est une chose complexe. Cependant, plusieurs facteurs ne permettent pas au test d’affirmer que la machine peut égaler ou même être supérieur à l’intelligence humaine, telle la complexité d’un problème mathématique impossible à résoudre pour un humain. En effet, si l’humain voit que l’ordinateur y arrive, il se doutera qu’il s’agit d’une machine et non d’un être humain. Ce qui prouve que certains comportements intelligents ne satisfassent pas au test de Turing par rapport à la question si oui ou non le comportement intelligent de la machine est comme celui de l’être humain. De plus, la machine n’a pas l’automatisme de l’humain, elle ne peut pas répondre à des questions ou résoudre des problèmes si aucune règle ne lui a été transmise ; elle ne peut pas répondre ‘’Ça va bien’’ à la question ‘’Comment allez-vous ?’’ si la réponse n’a pas été intégrée dans son système. Je me demande d’ailleurs si la machine, au lieu de penser, ne fait que simuler l’action de penser pour berner l’être humain. Par exemple, la fonctionnalité Siri sur le Iphone peut répondre à nos questions mais pas à toutes car les réponses possibles sont limitées. De ce fait, quand on pose une question que Siri ne peut pas répondre car la réponse liée à cette question n’a pas été intégrée dans son système, elle donne la réponse suivante ‘’Je ne sais pas quoi répondre à cette question’’. Un être humain aurait su répondre à toutes les questions d’une conversation, contrairement à certaines machines.

    ReplyDelete
    Replies
    1. Mais la réponse à la question ‘’Comment allez-vous ?’ n'est-elle pas intégrée dans notre système, par nous-même?... D’où vient cet automatisme dont tu parles? Et Siri,selon mes connaissances, c'est tout simplement un agent conversationnel, n'est-ce pas?...

      Delete
    2. Siri ne réussit pas le T2. On se rend compte presque tout de suite que c'est un ordinateur. Mais le but du T2 n'est pas de duper ou de berner. C'est de générer toute la capacité verbale qu'a une vraie personne (et s'il réussit, de se fait, fournir une explication de comment c'est possible).

      Harnad, S. (1992) The Turing Test Is Not A Trick: Turing Indistinguishability Is A Scientific Criterion. SIGART Bulletin 3(4) 9 - 10.

      Delete
  7. Il est impressionnant de voir qu'une machine pourrais penser et agir comme nous et évoluer par des algorithmes qui se modifie par eux autres mêmes, mais nous ne devons pas sous estimer le pouvoir d'une machine...

    ReplyDelete
  8. Désolé pour la longueur
    Partie 1 de 3

    À la question « Les machines peuvent-elles penser? », la seule réponse possible est « oui », puisque l’être humain est une machine et que cette machine pense. Cela dit, nonobstant cette réplique presque purement rhétorique, il n’en demeure pas moins que la vraie question est « sommes-nous capables de répliquer cette machine faite de chair et de sang dans un autre format, avec d’autres matériaux? » Encore ici, cette question demande à être précisée. En effet, que souhaitons-nous exactement répliquer : les comportements humains ou la conscience? La question que pose Turing dans « Computing machinery and intelligence » est de savoir si une machine sera capable un jour « d’imiter » les comportements humains. Sa thèse de départ est que la cognition humaine se réduit à ce que l’on peut observer du comportement de quelqu’un. Pour ma part, je pense que cette assertion est trop restrictive. Et, bien qu’ils comportent des similitudes, savoir en quoi consiste la cognition humaine, savoir si un ordinateur aura un jour une conscience ou savoir si la cognition se réduit aux comportements sont des problèmes fort différents les uns des autres.

    Dans un cas, imiter les comportements humains me semble tout à fait possible par la computation. Peut-être pas avec une machine TT2, mais certainement avec une machine TT3. Pour autant qu’une machine soit capable de se repérer dans l’espace, de créer des liens avec le monde réel, de capter les évènements extérieurs, alors je crois que l’imitation peut être une réussite, si l’on n’oublie pas cependant d’ajouter un protocole pour les émotions.

    Mais la question du test de Turing a des limites, car elle ne s’intéresse qu’à la duplication des comportements, et non pas au « problème dur » de la conscience. Cela dit, je me demande pourquoi chercher la conscience dans une machine alors que l’on ne sait même à quoi elle ressemble dans un être humain. En d’autres mots, lorsqu’on pose cette question « un ordinateur peut-il être doué de conscience », pourquoi nous arrêtons-nous au test de Turing pour en juger? Pour ma part, j’entrevois trois possibilités à la question « comment savoir si une machine est dotée d’une conscience comparable à la conscience humaine? » :

    1) par la communication : c’est le test de Turing. Comme nous l'avons mentionné, la communication ne nous apprend rien sur la conscience, puisqu’il est théoriquement possible de concevoir un ordinateur imitant notre comportement à la perfection. Entre nous, les êtres humains, nous tenons pour acquis que les autres pensent, simplement parce qu’ils le disent et qu’ils nous ressemblent. Un ordinateur pourra peut être un jour semblé communiqué, mais s’il n’est pas fait de chair et de sang, alors comment savoir si ce qu’il « pense » et « ressent » est de même nature que nos pensées et nos sentiments

    ReplyDelete
  9. Partie 2 de 3

    2) par la pensée ou la sensation : si je peux penser ce que la machine pense ou ce qu’elle ressent en même temps qu’elle, alors je saurai ce qu’elle pense ou ressent. Cela dit, cette position soulève le problème de l’unité de la conscience. Pour savoir ce qu’un autre pense, je devrais me « ploguer » sur son cerveau. Néanmoins, même si, grâce à une technologie hyperavancée et sophistiquée, j’arrivais à me « ploguer » sur le cerveau de quelqu’un d’autre, je serais quand même confronté au problème suivant : soit les pensées de l’autre seraient tout simplement les miennes et rien ne pourrait me convaincre qu’elles sont celles de mon avatar, soit je deviendrais l’autre et je ne serais plus moi-même cette conscience tentant de savoir ce que l’autre pense. C’est le problème que Turing appelle celui du solipsisme : « Doctrine affirmant que seuls existent pour le sujet pensant le moi et ses manifestations. » (Antidote, 2014) Au final, soit nous envisageons la possibilité d’une sorte de conscience double, ce qui dans notre position cognitive nous semble a priori impensable et farfelu, soit que l’idée de pénétrer dans la conscience de quelqu’un d’autre est tout simplement impossible. Quoi qu’il en soit, cette avenue nous est, pour l’instant, interdite et peu fructueuse.

    3) par l’observation des états du cerveau : c’est l’avenue qui, selon nous, semble la plus prometteuse. Comme nous l’avons vu, je ne peux pas savoir ni par la communication ni par la pensée si quelqu’un pense et ce à quoi il pense. Toutefois, si nous faisons fi du test de Turing, nous pouvons envisager l’observation du comportement du cerveau. En observant une panoplie de cerveaux et en demandant aux participants de nous dire ce à quoi ils pensent quand ils nous disent y penser, il nous est alors possible d’établir la structure mentale de notre cognition, c’est-à-dire comment la matière est organisée et comment elle se meut lors de la cognition. Ainsi, il nous sera un jour possible, grâce à des avancées technologiques, de dire que le sujet X génère un raisonnement doué de signification quand les neurones de son cerveau sont dans l’état Y.

    Une fois que nous aurons fait ses observations, il nous sera possible d’établir une liste des critères prérequis à toute conscience nous permettant d’évaluer si certaines machines en sont dotées, ne serait-ce que physiquement. Ainsi, bien qu’une machine ait un comportement « comme si » elle a une conscience, nous saurons que cela est impossible si elle ne comporte pas certaines caractéristiques prédéterminées.

    D’emblée, sans avoir fait toute cette recherche, je peux déjà établir une condition préalable afin de voir émerger la conscience pour tout système. Quand on pense à la computation, on pense à une tête de lecture qui lit des 0 et des 1 qui s’enchainent. Si on demande si une telle machine est dotée de conscience, ma réponse est systématiquement négative. Car, en effet, la tête de lecture ne sera jamais capable de prendre dans son ensemble les données qu’elle génère. Elle peut générer une image par exemple, point par point, mais n’a pas accès à l’idée d’ensemble de l’image. Il faut donc imaginer une seconde tête de lecture qui « lit » ce qui est généré par la première et prend ce qui est généré dans son ensemble pour en faire une lecture. Bien entendu, je ne pense pas que même encore là l’émergence de la conscience soit possible. En fait, je fais plutôt l’hypothèse que la conscience émerge d’une armée de ces « têtes de lecture » qui fonctionnent en même temps, ce qui rejoint le concept de modularité du cerveau. Mais peu importe ces conjectures, je veux seulement donner en exemple le fait qu’il est illogique de concevoir qu’une machine ne comportant qu’une seule tête de lecture puisse générer de la conscience.

    ReplyDelete
  10. Partie 3 de 3

    Cela dit, même si nous arrivions à dresser une liste de tous les prérequis à l’émergence de la conscience, rien ne nous dit qu’un système autre que celui fait de molécules et de chair est apte à la recréer. En effet, il existe des mécanismes qui ne sont possibles que dans un certain paradigme. La matière ne réagit pas de la même façon au niveau subatomique qu’au niveau moléculaire ou au niveau des galaxies. Certains phénomènes apparaissent dans un paradigme et pas dans un autre. La vie, par exemple, n’apparait peut-être que dans un paradigme bien défini. Est-il possible de concevoir que la vie apparaisse grâce à d’autres molécules que le carbone, l’eau et l’oxygène? Peut-on concevoir une autre galaxie où les êtres vivants sont constitués à 90% d’or par exemple? Peut-être qu’au fond la vie n’est possible que dans un certain paradigme moléculaire qui ne peut se répliquer dans aucun autre état de l’univers. Par transposition, on peut alors se demander si la conscience est elle aussi une de ces choses qui demandent des circonstances matérielles très précises et particulières, donc faisant partie d’un paradigme physique précis, pour pouvoir se concrétiser. La question de la machine pensante change alors de terrain et se trouve sur celui de la possibilité physique et technique.
    Je peux alors déjà démontrer ici une difficulté technique : celle de la nature bi-informationnelle de la matière tridimensionnelle. L’univers est comme une poupée gigogne. En effet, il est composé de pièces qui s’emboîtent les unes dans les autres : …les électrons-protons-neutrons forment une particule, quelques particules forment une molécule, les molécules forment une matière, plein de matière forme une planète, plusieurs planètes forment une galaxie… Ainsi, au niveau moléculaire, si nous voulons la reproduire de façon computationnelle, il nous faut recréer l’ingénierie interne et externe de la molécule. Premièrement, il faut savoir comment les constituants de la molécule interagissent et deuxièmement, comment la molécule agit avec ce qui se trouve à l’extérieur, par exemple les autres molécules.

    De ce point, je me pose ces questions : « Est-ce que des déterminants tels que le caractère tridimensionnel de la réalité et sa qualité bi-informationnelle sont nécessaires à la cognition? » Autrement dit : « Serons-nous capables de reproduire certaines particularités fonctionnelles (c’est-à-dire dans la « manière de faire » et non pas pour le « produit ») appartenant à la tridimensionnalité, si cela est nécessaire? » Ce que nous voulons ici suggérer, c’est que la conscience est peut-être plus une action, un mouvement, qu’un résultat. Ce qui nous fait demander : « Cette action qui génère la conscience est-elle reproductible dans un autre paradigme physique ou ne sommes-nous capables d'en reproduire que le résultat? » Ou encore : « Existe-t-il d’autres caractéristiques de ce genre qui pourraient empêcher la réplication de la conscience humaine? »

    ReplyDelete
  11. Turing est-il vraiment computationaliste? J'ai l'impression qu'il accorde quand même un peu d'importance au problème de la conscience. En ce sens où il ne semble pas vouloir le réduire à de la simple computation, malgré le fait qu'il ne creuse pas le sujet non plus.


    Malgré son manque d'intérêt pour le problème de la conscience, manque d'intérêt qui me semble peut-être caractériser par le fait que la conscience est un problème très difficile à élucider et plutôt abstrait, il s'agit tout de même (selon moi) d'un problème important pour la question qu'il pose "Can machine think". La pensé me semble être intrinsèque avec la conscience, mais peut-être que je me trompe.

    ReplyDelete
    Replies
    1. Je comprends très bien ta position sur ce sujet, moi aussi j'ai été accroché par ce manque d'intérêt à intégrer la conscience à la 'machine'.

      Rapidement j'ai pensé que c'était certainement une faiblesse que Turing ne pouvait expliquer, alors en la repoussant en dehors de l'explication nécessaire à la construction de la machine il évitait la question. Mais la question demeure, pourquoi la conscience n'est pas une partie essentielle à la réponse de la question "Can machine think" ? La conscience ne serait pas nécessaire à la pensée ? Le concept abstrait de conscience, serait certainement bien différent du point de vu de la machine, que de la définition que nous en faisons.

      Du point de vue de la machine, la conscience est hors de propos. Ce qui est conscient pour la machine n'est que pure logique. La logique explique la totalité de son comportement, donc sa construction est explicable et son explication est logique. La logique de la machine consisterait en sa conscience, en son existence. Mais pour l'humain, la logique n'explique pas chaque chose. L'humain est fait d'intuition, de forces et de faiblesses, de joie et de peur... ce qui constitue l'humain et ce qui constitue la machine définisse l'essence même de leur conscience.

      Lorsque Turing laisse la conscience à expliquer après la machine, il avance que la conscience est un résultat de la cognition et donc il est impossible de l’expliquer pour la machine, avant même qu’elle n’existe.

      Delete
    2. J’aime bien ton explication d’une sorte de conscience différente, mais purement logique pour la machine. Cependant, je ne crois pas que nous puissions affirmer que tout n’est pas logique chez l’humain. Pas parce que nous ne pouvons pas voir ou comprendre la logique derrière certains éléments qu’il n’y en a pas, tout comme certains résultats mathématiques peuvent sembler contre-intuitif, mais lorsque démontré avec les règles logiques mathématiques, les résultats sont sensés. Plus près du sujet, l’intuition pourrait par exemple résulter de calculs statistiques inconscients et les émotions pourraient être explicables par une « programmation » initiale chez l’humain puis moduler ou reprogrammer par les différents apprentissages tout au long de la vie.
      Aussi, il est impossible de s’assurer de la conscience potentielle des machines étant donné le problème des autres esprits alors on ne peut pas s’attarder à la chercher, que la conscience émane de la cognition comme Turing le pense ou non.

      Delete
  12. Turing se demande si des ordinateurs numériques pourraient bien faire au jeu de l'imitation. Je crois que selon le principe du jeu de l'imitatition et si l'observateur ne voit pas la machine (afin d'exclure tout point de vue physique), oui un ordinateur numérique pourrait arriver à bien faire. L'ordinateur doit arriver à structurer des réponses de façon à approcher le plus possible la façon de raisonner d'un être humain. J'aime bien la façon d'apprendre qu'il propose qui est de de faire passer l'ordinateur à travers tout le processus d'éducation normale que subirait un enfant. Cela serait d'après-moi une très bonne façon de faire en sorte qu'un ordinateur puisse passer le jeu de l'imitation bien qu'en dehors de ce jeu, il y a encore des facteurs physiologiques et biologiques qu'un ordinateur qui est matériel ne peut pas nécessairement comprendre. Il faudrait passer par un matériel très approprié afin de percevoir les facteurs biologiques, physiologiques et sensibles que l'on perçoit de notre monde. Le meilleur exemple que je pourrais donner d'un de ses facteurs est la chaleur humaine. C'est quelque chose que l'on ressent qui est à la fois physique, physique, physiologique et qui relèvent de notre état d'esprit qui est propre à chacun de nous.

    Toutefois, bien que j'aie donné un contre argument, j'aime bien ce texte et je crois même que le modèle d'éducation qu'il a proposé pour l'ordinateur pourrait même nous aider à concevoir de meilleurs logiciels d'interaction humain-machine pour nos assistants numériques. Ce n'est qu'en étant pleinement plongé dans l'univers de quelqu'un qu'on finit par le comprendre complètement

    FR, étudiant au BSc en météorologie

    ReplyDelete
  13. Dans le contre argument que fais Mr. Turning à l’objection de lady Lovelace, selon laquelle ‘’une machine ne peut jamais nous prendre par surprise’’, Il déclare que la machine peut le surprendre lorsqu’il calcule ou suppose mal le voltage qu’il met dans sa machine. Ce qui le surprend sont les propriété du ‘’hardware’’ de sa machine alors que ce qu’elle critique réellement c’est l’incapacité d’une machine a nous surprendre en dépassant ce qu’elle définis par ‘’peut importe ce que l’on sais lui ordonner de faire’’. Alors le contre-argument de Mr. Turning ne peut pas être valide puisqu’il attrait au ‘’hardware’’ de la machine et non son logiciel. Ainsi je crois qu’il est toujours vrai qu’une machine ne peut nous prendre par surprise puisqu’il lui est impossible de dépasser les limites de ce qu’on ‘’sais lui ordonner de faire’’.

    ReplyDelete
  14. J’ai de la difficulté avec la pertinence de poursuivre le jeu de l’imitation. Au final, l’expérience de Turing revient à vérifier si comportementalement, l’ordinateur pourra faire la même chose que l’humain. Le cheminement pour la création de ce programme sera notre interprétation computationnalisée de la cognition humaine, mais l’évaluation des résultats finaux se fera selon les techniques béhavioristes d’analyse de comportement. Ce sera certes un bon indice de l’accomplissement de la rétroingénérie du cerveau, mais où sera la preuve que la computation de cet ordinateur sera égale à la cognition du cerveau humain? Pourquoi la «boîte noire» de l’humain serait nécessairement identique au programme de la machine seulement parce que le résultat comportemental est le même? Si ce n’est pas le cas, je ne vois pas l’utilité de poursuivre l’expérience si le but est de trouver un modèle cognitif de l'humain en la machine.

    ReplyDelete
    Replies
    1. Je suis d'accord avec toi... Je ne suis pas certaine de comprendre en quoi l'ordinateur est équivalent au cerveau humain en réussissant l'imitation de celui-ci. Ce serait en fait de dire que la cognition est de la computation alors que ce n'est pas que ça. Sans sous-estimer les ordinateurs, je ne crois pas qu'ils puissent avoir des interactions au niveau émotionnel. Je crois par contre qu'il peuvent imiter ce comportement, mais sans jamais vraiment ressentir d'émotions.
      Est-ce que nous pouvons maintenant affirmer que l'ordinateur pense parce qu'il peut imiter? J'en doute.

      Delete
  15. Je trouve le test de Turing intéressant, mais je ne le trouve pas pertinent. Finalement, je ne pense pas que de produire une machine qui saurait truquer un humain en simulant des outputs impliquerait nécessairement que cette machine a fait de la cognition. Si cette machine existerait en vrai et qu'on lui demandait: ''Quels sont tes buts dans la vie?'', quel serait le processus qui l'amènerait à produire un output? sans doute quelque chose comme une fonction aléatoire qui sélectionne un élément dans une liste de ''buts dans la vie'' qui sont cohérents avec la discussion. Je ne connais pas encore grand chose en science cognitive, mais ça ne m'aparait pas comme de la cognition.

    ReplyDelete
    Replies
    1. Il est vrai qu'il pourrait sembler frivole pour une machine de répondre à cette question sur les buts de sa vie. Cependant, cette machine a été programmé. On lui a donc probablement donné des traits de caractères ou quelque chose qui s'apparente à des traits de caractères chez l'humain. La machine répondrait à la question sur ses buts selon les traits de caractères (ou quelque chose qui s'apparente à ça) qui lui a été donné.

      Toutefois, ton propos est très intéressant et il reflète ma manière de penser dans le domaine. La meilleure des choses serait que cette machine réponde ce qui lui a été programmé, mais cela ne serait pas les véritables buts de la vie de l'entité puisqu'elle ne correspond pas à la définition de vivant. Elle répondrait tout simplement comme j'ai dit ce qui lui a été «programmé».

      Delete
  16. Si j’ai bien compris, le principal défi dans la conception de la « digital computation » en est un de programmation : comment programmer la machine pour qu’elle puisse jouer au jeu de l’imitation et passer le test?. Outre la nécessité d’améliorer la capacité de « storage », ainsi que l’ingénierie, il serait intéressant de s’inspirer du cerveau des enfants qui possède des propriétés qui le rendrait plus facilement programmable et d’y ajouter des capacités d’auto-apprentissage afin qu’il puisse évoluer en un programme imitant le cerveau d’un adulte. Cela le rendrait encore plus habile pour jouer au jeu de l’imitation. Ai-je bien compris?

    ReplyDelete

  17. Bonjour Étienne,

    J'ai un petit questionnement... Selon vous et selon ce que vous connaissez de Descartes. Aurait-il (en tenant compte des connaissances d'aujourd'hui et en effaçant l'idée de dieu) été computationaliste?

    Je ne crois pas qu'il y ait de bonnes réponses n'y que ce soit très pertinant. Mais je lisais les métaphysiques et j'ai eu cette réflexion.

    Merci

    ReplyDelete
    Replies
    1. Descartes dualiste

      D’après moi Descartes n’était ni computionnaliste, ni dynamiste (ce qui épuiserait toutes les possiblités monistes). Il semble avoir été dualiste. Ce qui veut dire qu’il croyait aussi en magique (ou peut-être l’intervention divine).

      Ce n’est pas pour ça que Descartes mérite son renommé intellectuel!

      Delete
  18. Le test de Turing consiste à mettre en confrontation verbale à l’aveugle un humain avec un ordinateur et un autre humain. Le test est réussi si l’homme n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur. Selon les propos de Turing, une machine aurait tous les capacités pour tromper l’homme en question. Selon moi, plusieurs systèmes réussiraient à passer le test avec succès sans nécessairement faire preuve d’une véritable capacité de compréhension. De ce fait, la facilité à laquelle l’homme peut être dupé par une machine remet en question l’efficacité du test d’intelligence artificielle de Turing.

    ReplyDelete
  19. Dans « Computing Machinery and Intelligence » Turing propose une méthode opératoire pour trancher la question qui agite les esprits: « Les machines peuvent-elles penser ? ». Turing lui donne le nom de « jeu de l'imitation ». Plutot que « penser, c'est calculer » la formule qui résume cette methode devrait etre « penser, c'est simuler »

    ReplyDelete
  20. J’ai trouvé la réflexion sur les méthodes systématique et au hasard très intéressante. La nature a beaucoup à nous apprendre, c’est pourquoi je trouve très pertinente la biologie. Le processus naturel de l’évolution est lui-même analogue et, en quelque sorte, au hasard, ne retenant seulement ce qui avantage au point de vue fitness, par exemple. Tout indique que les processus dynamiques sont possiblement au cœur-même de notre constitution, bien qu’écarter tout ce qui a trait au domaine du discret pourrait fort bien s’avérer une grave erreur.

    ReplyDelete
  21. Le test de turing, bien qu'il est intéressant , n'apporte rien de nouveau selon moi. Il n'a rien de surprenant dans le fait qu'un ordinateur répondre de façon identique à des questions que si s'était un être humain. Je ne crois pas que le grand défi pour ceux qui programme les ordinateurs soit de faire en sorte qu'on ne puisse faire la différence entre elles et un humain, je crois que le vrai défi est plutôt de réussir à faire agir, pensé, communiqué une ordinateur comme un humain, mais encore la, est-il vraiment possible de faire pensée un ordinateur ? Je suis plutôt septique à cette idée.

    ReplyDelete