Saturday 11 January 2014

3a. Searle, John. R. (1980) Minds, brains, and programs

Searle, John. R. (1980) Minds, brains, and programsBehavioral and Brain Sciences 3 (3): 417-457 

Traduction langue française: http://www.persee.fr/web/revues/home/prescript/article/quad_0987-1381_1987_num_1_1_2097
This article can be viewed as an attempt to explore the consequences of two propositions. (1) Intentionality in human beings (and animals) is a product of causal features of the brain I assume this is an empirical fact about the actual causal relations between mental processes and brains It says simply that certain brain processes are sufficient for intentionality. (2) Instantiating a computer program is never by itself a sufficient condition of intentionality The main argument of this paper is directed at establishing this claim The form of the argument is to show how a human agent could instantiate the program and still not have the relevant intentionality. These two propositions have the following consequences (3) The explanation of how the brain produces intentionality cannot be that it does it by instantiating a computer program. This is a strict logical consequence of 1 and 2. (4) Any mechanism capable of producing intentionality must have causal powers equal to those of the brain. This is meant to be a trivial consequence of 1. (5) Any attempt literally to create intentionality artificially (strong AI) could not succeed just by designing programs but would have to duplicate the causal powers of the human brain. This follows from 2 and 4. 
résumé langue anglaise:




Searle lui-même:

37 comments:

  1. Bonjour,
    C'est bien intéressant ce Chinese room.( J'étais et est comme dans ce jeu de Room mais un Français room.En effet, j'ai commencé à apprendre le français par un tel livre et dans un endroit "fermé" parce que tout le monde parler chinois. )
    J'aimerais savoir s'il y a un Chinese room dans le niveau de Total Turing Test ?
    Bonne journée,
    Li

    ReplyDelete
    Replies
    1. Non, pour T3 Searle ne peut pas faire son implémentation parce que le T3 n'est pas purement computationnel.

      Delete
  2. La cognition ne peut pas être de la computation. La raison en est que la manipulation de symboles effectuée par un ordinateur n’équivaut pas au même niveau de manipulation des symboles effectuée par un cerveau. Dans le cas d’un ordinateur, la manipulation de symboles joue deux rôles : 1) sert de fonctionnement interne et 2) de représentation symbolique d’objets réels. Le premier niveau de manipulation des symboles de l’ordinateur correspond au mécanisme du corps. Le second niveau correspond à notre capacité de générer du langage. De ce fait, nous nous retrouvons devant l’impossibilité suivante : comment un organe peut-il générer des symboles, alors que son fonctionnement même en dépend? C’est la question de l’œuf et de la poule. Il ne peut y avoir de fonctionnement s’il n’y a pas de symboles, et il ne peut pas y avoir de symboles s’il n’a pas de fonctionnement. En conséquence de quoi, la cognition ne peut pas être « la même chose » que la computation. Right?

    ReplyDelete
    Replies
    1. Wrong. Le cerveau manipule des symboles? Alors c'est quand-même de la computation.

      Delete
    2. Le cerveau manipule des symboles? Oui, mais seulement dans ce qui a trait au langage. Le reste de son fonctionnement, non.

      Ce n'est pas toutes les fonctions du cerveau qui utilisent le langage. Par exemple pour l'analyse des objets de la vue, pour nous rappeler comment est diposé l'espace etc.

      Donc, dire que la computation est de la cognition est faux, car ce n'est pas parce qu'une toute petite partie de la cognition utilise des symboles que toutes la cognition en utilise aussi. Croire cela c'est faire une généralisation hâtive.

      Delete
    3. Sinon, peut-être pensez-vous que n'importe quel signal nerveu est symbolique? Alors je demanderais de mieux définir le terme symbole. Car à mon sens, un signal nerveu ne comporte pas toutes les caractéristiques de ce que l'on nomme usuellement un symbole.

      Delete
    4. De plus, attribuer un sens symbolique aux "signaux nerveux", n'est-ce pas tomber un peu dans ce que Sellars appelle "le mythe du donné"? C'est-à-dire que nous attribuons à des phénomènes empiriques une intellectualisation/symbolisation qui ne leur appartiennent pas.

      Delete
    5. Je ne suis pas d'accord avec toi que le langage soit une simple manipulation des symboles. Oui, il y en a, certainement, un système de traitement des symboles impliqués dans le traitement d'input langagier, mais même dans le traitement du langage, on ne manipule pas seulement des symboles, mais l'input langagier qu'on reçoit pour être traité doit passer à travers notre système de nos croyances, nos certitudes, nos attitudes etc. On ne peut pas dire que le langage est purement computationnel. Le langage implique non seulement la syntaxe, mais la sémantique, ainsi que la pragmatique. Et cela ne peut pas être purement une manipulation des symboles.

      Delete
    6. Je n'ai jamais dit que le langage soit uniquement de la manipulation de symboles. Ce que j'ai dit par contre, c'est que la computationnalisme au contraire, lui n'est uniquement que de la manipulation de symboles. Mais il manipule deux types de symboles. Ceux qui lui servent à son fonctionnement interne, et ceux qui servent à communiquer avec le monde extérieur. Le programme de l'ordinateur peut formuler une formule du type : "Quand tu vois quelque chose de jaune et de gros, répond "Soleil"". Il y a ici deux types de symboles, certains sont fonctionnels, donc font parties du mécanisme de l'ordinateur, tandis que le mot "Soleil" réfère à quelque chose dans le monde.

      Dans le corps humain, je fais l'hypohèse qu'il n'y a pas ce premier type de symbolisation au niveau de son fionctionnement, mais qu'il n'y a que des évènements réels. Exemple, une douleur ou un plaisir. La douleur en soi et le plaisir en soi ne sont pas des symboles pour une autre douleur ou un autre plaisir qui seraient eux la vraie chose; c'est la douleur ou le plaisir même.

      Donc, une bonne partie du fonctionnement du corps humain ne repose pas sur des symboles, alors que l'entièreté du computationnalisme si.

      Si la thèse du computationalisme était vraie, alors, au point de vue évolutif, ce serait admettre que le corps s'est mis à générer des symboles alors qu'il n'avait pas encore de système langagier. Ce qui est à mon sens impossible. Sinon, il faut redéfinir le terme "symbole".

      En conséquence de quoi, il m'importe peu pour mon arguement de savoir si l'entièreté du système langagier soit de la manipulation de symboles ou non. Il me suffit qu'une partie le soit et de réaliser que le reste du fonctionnement du corps n'utilise pas des symboles. Et puisque le computationalisme n'est pour sa part que de la manipualtion de symboles, alors la cognition et la computation ne peuvent pas être des équivalences sur ce point.

      Delete
    7. Hugo, les signaux neuronaux ne sont pas nécessairement des symboles. Et dans l'ensemble, je crois que tu as raison.

      Delete
  3. Si vous avez envie de vous amuser !

    http://www.cleverbot.com/

    ReplyDelete
    Replies
    1. Bonne illustration!:)

      http://eflclassroom.com/bots/ebot2.html

      Delete
  4. L'objection du système me laisse perplexe.

    Est-ce la machine ou le logiciel qui doit duper le correspondant chinois? Ou les deux ensemble? Selon ce que j'ai compris en classe, c'est le logiciel dont il est question, puisqu'on exige qu'il soit en mesure d'y parvenir indépendamment de son implémentation; ses algorithmes doivent fonctionner et avoir les même propriétés, quelle que soit la forme matérielle qui contient le logiciel. Si la nature de la machine qui exécute le logiciel a aussi peu d'importance, et si on sait d'emblée que le test a été réussi dans le scénario hypothétique de la chambre chinoise, quelle différence est-ce que ça peut bien faire que Searle ne comprenne pas le chinois? Le «système» composé de lui-même et du logiciel n'a-t-il pas été en mesure d'équivaloir à la cognition d'une personne au point de duper son correspondant?

    Par ailleurs, l'idée qu'un «agent humain» ait pu exécuter le logiciel sans comprendre le sens des entrées et des sorties n'est pas suffisant pour prouver que l'exécution d'un logiciel n'est _jamais_ une condition suffisante pour la compréhension...

    Je sens que quelque chose m'échappe. Je trouverai peut-être des réponses en lisant le texte 3b. J'ai préféré laisser ce commentaire à priori. Ceci dit, je connais mieux l'anglais que Searle connait le chinois, mais la barrière de la langue, même partielle, est un handicap non négligeable. Vivement des traductions.

    ReplyDelete
    Replies
    1. C'est le système (le logiciel étant exécuté par le matériel) qui est censé de comprendre. Ça ressemble à quelque chose de comprendre. Lorsque Searle mémorise les règles et les exécute sur les courriels chinois, c'est lui le système, et il ne comprend pas -- alors l'ordinateur et le logiciel passant le T2 n'avait pas compris non plus.

      Le TT n'est pas pour « duper » mais pour faire la rétroingénierie, de vrai.

      Il n'est pas pertinent que ça prendrait trop de temps pour mémoriser le logiciel (hypothétique) T2. C'est une expérience conceptuelle, et la vitesse n'a rien à voir.

      Delete
  5. Selon moi, un ordinateur ne peut pas nécessairement décrypter le langage des symboles mieux qu’un être humain. L’humain a mis la possibilité de comprendre que tel symbole représente tel mot dans l’ordinateur parce qu’il a alimenté celui-ci, c’est pourquoi la machine peut « comprendre » le mandarin. Un humain qui ne parle qu’anglais aura la possibilité de comprendre le mandarin s’il a pu associer certains symboles à tels mots ou lettres. Si la computation est la manipulation des symboles selon leurs formes, l’humain qui manipule une écriture chinoise en faisant une association à un autre mot anglais, peut faire des phrases.

    La cognition n’a rien à voir là-dedans car la pensée, seule, ne peut décrypter le mandarin, il a besoin du corps et du cerveau ; comme une machine avec son logiciel. En effet, comment la machine pourrait décrypter le mandarin sans le logiciel qui le permet ? Bref, la machine et l’humain peuvent décrypter de façon similaire un autre langage mais la machine peut le faire plus rapidement et avec une plus grande précision.

    ReplyDelete
    Replies
    1. Mais un ordinateur a son logiciel! Et le T2 n'est pas la traduction mais la conversation verbale, concernant n'importe quoi, le long d'une vie.

      Et le sciences cognitives demandent ce que c'est que la pensée? N'est-ce que de la computation, ce que fait un ordinateur qui exécute un logiciel.

      Attention pour ne pas tomber dans le dualisme, qui présume, a priori, qu'il y a un esprit immatériel qui est distinct du corps matériel.

      Le cerveau fait partie de corps. Un humain, c'est un corps avec certaines capacités. C'est ces capacités-là que les sciences cognitives cherchent à expliquer en faisant la rétro-ingénierie, comme avec T2 (ou T3 ou T4).

      Delete
  6. La métaphore symbolise le principe d'une certaine façon, mais on ne pourrait pas affirmer que la computation fonctionne vraiment de cette façon. L'image de la Chinese room est une approche réductionniste de l'ordinateur, ce serait équivalent à réduire le cerveau au cortex frontal.

    Ceci dit, la simple manipulation des symboles équivalents peut assurer un certain niveau de communication acceptable qui pourrait être confondu à une compréhension du langage. Bien évidement, il ne s'agit que d'une traduction des symboles. La machine peut facilement associé les symboles équivalents, de façon rapide et syntaxiquement valable.

    Par contre, la machine ne peut pas comprendre la sémantique des symboles. La qualité d'un traducteur passe par son expérience empirique des langues. La compréhension des phénomènes expliqués qui doivent être traduit dans une langue consiste d'avantage à la qualité des transformations, bien avant la compréhension des règles grammaticales et syntaxiques. Lire ici la distinction entre le fond et la forme. Ce n’est pas la qualité du dictionnaire de synonymes qui fait la réputation de l’auteur, c’est sa compréhension fondamentale de ce qu’il a à dire. Dans la perceptive de Searl, effectivement la computation peut simuler une conscience sans réellement en être conscient… Nous savons aujourd’hui qu’un ordinateur consiste en bien plus qu’un processeur, plus qu’une forme et presque un fond.

    Skynet ?

    ReplyDelete
  7. Voilà, pour les intéressés-es, un extrait de Raison, vérité et histoire de Hilary Putnam.

    «Supposons, par exemple, que je me trouve dans une situation de Turing (dans les termes de Turing je joue « le jeu de l'imitation ») et que mon partenaire soit en fait une machine. Supposons que cette machine soit capable de gagner le jeu (de « réussir » le test). Imaginons que la machine soit programmée pour répondre en un anglais châtie a des questions, des affirmations, des remarques et ainsi de suite, mais qu'elle ne possède pas d'organes sensoriels, ni d'organes moteurs, excepté le branchement pour le clavier électronique et le clavier lui-même. (Pour autant que je sache, Turing ne suppose pas que la possession d'organes sensoriels ou moteurs soit nécessaire à la conscience ou à l'intelligence.) Supposons non seulement que la machine n'a pas de yeux ou d'oreilles électroniques, mais le programme de la machine, le programme pour jouer le jeu de l'imitation, n'est pas conçu pour intégrer des inputs sensoriels, ou pour contrôler un corps. Que faudrait-il dire d'une telle machine ?

    Il me semble évident que nous ne pouvons pas et que nous devons pas attribuer la référence à cet engin. Il est vrai que la machine peut discourir agréablement sur le paysage de la Nouvelle-Angleterre, par exemple. Mais si elle s'y trouvait confrontée elle ne saurait pas reconnaître une pomme d'un pommier, une montagne d'une vache ou un champ d'une haie...... Ce qui produit l'illusion de la référence, du sens, de l'intelligence et ainsi de suite, c'est qu'il existe une convention de représentation que nous nous suivons, en vertu de laquelle le discours de la machine fait référence aux arbres, au haies, à la Nouvelles-Angleterre et autres.... Il existe des « règles d'entrée dans le langage » qui nous mènent de notre expérience des pommes à des énoncés comme « Je vois une pomme », et des « règles de sortie du langage » qui nous mènent des décisions exprimées par des formes linguistiques, à des actions non-linguistiques. Puisque la machine n'a pas de règles d’entrée ou de sortie, il n'y a aucune raison de considérer ses propos comme étant autre chose qu'un jeu syntaxique. C'est un jeu syntaxique qui ressemble sans aucun doute à un discours intelligent.»
    (Hilary Putnam, Raison, Vérité et Histoire. Les éditions de minuit, 1984, p.20-21)

    ReplyDelete
  8. 2e commentaire de la semaine :
    Un ordinateur ne va pas comprendre la sémantique du langage et ne va pas non plus en comprendre le fond comme un être humain comprenant la langue. En effet, la machine traduit rapidement des mots ou des phrases du mandarin à l’anglais mais ne peut pas remplacer un traducteur humain qui peut tourner des phrases de manière plus flexible et donner des définitions plus spécifiques et non vague et stricte comme l’ordinateur le ferait. L’expérience du traducteur humain améliore la perception du langage. Ce n’est pas parce que l’ordinateur a un dictionnaire intégré que la traduction ou la définition de tel ou tel mot va être plus claire que celle de l’humain qui peut donner davantage de synonymes et d’exemples, donnant une définition plus explicite et plus facile à comprendre. Il ne suffit donc pas de connaître les règles grammaticales d’un langage, il faut aussi savoir manipuler la langue de façon clair et général et de pouvoir tourner les phrases de manière à faciliter une plus grande compréhension.

    ReplyDelete
    Replies
    1. La capacité à traduire ne donne pas la capacité à s'entretenir avec une personne, genre T2...

      Delete
  9. Est-ce que Searle croit que la computation n'est pas une théorie valable parce qu'elle présuppose que le matériel n'a pas vraiment d'importance (tant qu'il est capable d'exécuter le logiciel)? Si oui, il faudrait donc s'intéresser davantage à l'étude biologique du cerveau pour expliquer la cognition dans son ensemble?

    ReplyDelete
    Replies
    1. C'est ce que souligne Searle à propos de intelligence artificielle et du computationnalisme. Dans sa version forte, le computationnalisme ne prend compte que de l'hypothese dualiste. Si l'on s’intéresse à l'esprit, le cerveau n'a pas d'importance. En computation, ce qui compte, ce sont les programmes, et les programmes sont indépedants des machines. -« C'est seulement si l'on croit que l'esprit est séparable du cerveau à la fois conceptuellement et empiriquement c'est-à-dire si l'on est dualiste dans un sens fort que l'on peut former l'espoir de reproduire le mental en écrivant et en faisant tourner des programmes.»

      Delete
  10. Donc, selon Searle, le plus sophistiqué des logiciels ne serait pas plus capable de "comprendre" que la simple machine à calculer? J'imagine maintenant que les logiciels sont une façon d'augmenter nos compétences cognitives sans pour autant toucher à la capacité, un peu comme Néo, dans le film Matrix, qui apprend à piloter un hélicoptère en chargeant un programme. Les logiciels resteront des utilitaires car ils ne sont pas dotés d'intentionnalité que Searle situe dans l'organique.

    Peux-t-on rapprocher l'idée d'intentionnalité de Searle avec la notion de pulsion de Freud qui essaye lui aussi d'expliquer le point d'ancrage du mental dans le biologique?

    ReplyDelete
  11. Je trouve l'exemple des inscriptions chinoises que Searle amène pertinente. En effet, la cognition ne se résume sans doute pas à de la computabilité si on considère un autre critère caractéristique de l'esprit humain: l'intention. Je suis d'accord qu'une machine ne peut pas vraiment être dotée d'intentions, elle ne fait qu'exécuter les lignes de commandes de ses programmes. L'intention vient selon moi d'une compréhension de l'environnement, et une machine ne fait que constater les variables physiques sans les comprendre.

    ReplyDelete
  12. OK donc j'avais seulement lu la version courte de Searle et de son expérience de pensée auparavant et j'étais sceptique mais ce texte défend bien l'argument et répond de façon satisfaisante aux critiques. Notamment en ce qui concerne l'argument du système dont je ne voyais pas la faille avant. Searle explique que même si l'homme avait mémorisé toutes les règles et qu'il n'avait plus besoin des bouts de papier il ne comprendrait toujours pas plus le chinois qu'il le comprenait avant et l'idée du système qui comprend ne tient plus a ce moment là.

    Searle défini bien aussi l'idée de compréhension, ce qui est important lorsque on veut affirmer que la pièce ne comprend le Chinois bien qu'elle puisse converser aussi bien qu'un natif de Chine. Mais en effet la pièce ne "comprend" pas plus qu'un thermostat perçoit les changements de température.

    Un seul point ma laisser perplexe et c'était la réfutation de Searle du numéro II: The robot reply (Yale). Si je comprends bien Searle ne pense pas qu'une machine du niveau T3 pourrait cogniser non plus? Je n'ai pas encore lu le texte de Harnad sur Searle (je voulais commenter sur celui là avant) mais si c'est le cas j'imagine que c'est un des points sur lesquels que M.Harnad n'est pas en accord avec?

    ReplyDelete
  13. Selon moi, un des éléments les plus importants à retenir est le suivant : la CRA ne prouve pas que la cognition ne soit pas en partie de la computation. Ceci étant dit, le texte de Searle mérite selon moi quelques remises en question. D’abord, je trouve que Searle met l’activité mentale du cerveau sur un piédestal sans raison valide. Bien que le cerveau soit un organe très puissant, cela n’explique pas vraiment pourquoi une machine ne pourrait pas atteindre le même niveau de puissance et faire comme le cerveau. Searle semble croire que la biologie est nécessaire afin d’exprimer l’esprit (« mind ») et donc, qu’il est impossible de dissocier l’esprit (« mind ») de l’interaction biochimique du cerveau. Cependant, les mécanismes biochimiques impliqués dans le cerveau ne sont qu’un moyen de transférer de l’information sous forme électrique (influx nerveux). Par exemple, les neurotransmetteurs libérés d’un neurone ne servent qu’à aller se coller sur les récepteurs de l’autre neurone afin d’ouvrir les canaux ioniques de cette dernière, créant une dépolarisation et propageant ainsi l’activité électrique vers le prochain neurone et ainsi de suite. Je me demande alors quelle est la nécessité de cette interaction biochimique du cerveau pour Searle alors que cette dernière peut être remplacée par une conduction électrique non biologique.
    Ensuite, Searle semble indiquer que l’intentionnalité et la compréhension émanent nécessairement du cerveau. Cependant, la compréhension ne pourrait-elle pas aussi émaner de la computation faite par une machine aussi puissante que le cerveau? Par exemple, imaginons une machine computant deux éléments à la fois, de façon à ce que l’input de la deuxième computation soit l’algorithme utiliser pour faire la première computation. L’output de la deuxième computation ne serait-elle pas semblable à une sorte de compréhension de la part de cette machine?

    ReplyDelete
  14. Je suis d’accord avec Searle quand il dit qu’il y a de sérieux problèmes avec les conceptions fonctionnalistes de l’esprit, selon moi il est impensable de ne pas tenir compte des aspects subjectifs de l’expérience. L’esprit, ou la conscience, ne peut pas être définie seulement qu’en terme de fonctions biologiques ou physiques. La conscience intentionnelle n’est pas seulement la reproduction d’un comportement intentionnel. Le langage, par exemple, est une expression très forte de notre capacité cognitive. Je ne vois pas en quoi le fait d’avoir la faculté d’imiter la conversation humaine serait suffisant pour dépasser la dimension formelle ou syntaxique, et ainsi expliquer la complexité sémantique de la conscience humaine, ou des processus mentaux impliquant la pensée. Il manque quelque chose à la syntaxe pour donner la sémantique (ancrage des symboles?). Les ordinateurs sont des machines qui, inconsciemment, font bouger des électrons. Le cerveau fait bouger des élections consciemment. Seule, la forme n’est pas en mesure de me donner le contenu.

    ReplyDelete
  15. Searl nous parle beaucoup de la question de l’intentionnalité de l’humain vs celle de la machine. Si l’on définit l’intention comme une construction individuelle formée par les entrées externes (monde objectivable) et par la propre interprétation phénoménologique de l’action à suivre, il serait possible de concevoir une machine douée d’intention. Lorsqu’une machine possède la capacité de venir modifier son propre algorithme par apprentissage dû aux entrées des entrées, il modifie sa perception et crée un point de vue phénoménologique. Cette transformation peut être interprétée comme un monde de compréhension et donc s’approche ou même devient de la cognition comme la nôtre. La machine possède maintenant les facultés nécessaires à construire un monde interprétatif et compréhensible à travers les entrées qui lui arrive. L’on pourrait dire que la machine, par sa faculté d’apprentissage, vient créer une sémantique à syntaxe qui lui a été donnée au départ.
    Le seul problème avec cette possibilité est que la cognition humaine n’est pas faite uniquement d’apprentissage dû à l’intégration des inputs. L’humain apprend à l’intérieur d’un monde dynamique qui est poussé par des forces instinctives dynamiques, faim, soif, peur, etc. Ce mode d’intégration et de création de l’intention vient modifier complètement la signification réelle de l’intention. Dans la cognition humaine, l’intention devient non pas une juxtaposition des inputs et des apprentissages idiosyncrasique, mais également une manière même d’agir dans son milieu, un sens-making à ce qui se passe.

    ReplyDelete
  16. J'aime bien l'exemple du chinese room. Le fait de donner des instructions afin de finir par associer des caractères à des instructions montre bien que le principe de fonctionnement d'un ordinateur. L'ordinateur ne comprend pas comme nous les notions. Elle est programmer pour les utiliser et interpréter sans toutefois les comprendre. Pour l'intention, contrairement à un ordinateur, un être humain fait des choix dans un cheminement contrairement à un ordinateur qui va prendre un chemin optimal selon ce qui lui a été programmer. Un être humain va faire preuve d'intention en utilisant un tel cheminement au lieu d'un autre selon des étapes bien précise qui parfois viendront dans le processus de résolution de problèmes au niveau de sa compréhension.

    ReplyDelete
  17. This comment has been removed by the author.

    ReplyDelete
    Replies
    1. Nous reprenons la question « Could a machine think? » en introduisant une autre mesure : l’intention, comme l’élément qui pourrait confirmer que la machine pense car elle est dotée d’intention. La « Strong AI » serait supposément capable de créer des intentions de façon artificielle. On ne fait plus allusion à la machine mais plutôt au programme; pourtant aucun programme n’est suffisant, à lui seul pour penser. Dans la « strong AI », les programmes ont des états de cognition dont ils sont eux-mêmes l’explication. La strong AI est un outil puissant pour formuler et tester des hypothèses.

      Selon la strong AI, l’ordinateur programmé comprend l’histoire et le programme explique en un sens la compréhension humaine. Cela est démenti pas le simple fait que les inputs et les outputs sont identiques mais qu’ils n’y a eu aucune compréhension, seulement une manipulation de symboles. Il faut faire attention au fait qu’il y a différents niveaux de compréhension et que celle-ci ne peut se résumer seulement des inputs et des outputs qui y sont associés. La théorie du système ne peut s’appliquer car il n’y a rien dans le système qui n’est pas en lui et qu’il ne comprend toujours pas; la manipulation de symbole ne peut pas suffire à la compréhension du Chinois.

      La réponse du « brain simulator » est intéressante car si nous créons une machine avec les mêmes propriétés de neurones et de synapses du cerveau, nous pouvons créer des programmes qui fonctionnent en parallèle pour reproduire le fonctionnement du processus naturel du langage à l’aide d’inputs et d’outputs. À ce niveau, celui des synapses, le programmes de la machine et celui du cerveau du chinois s’équivaudraient. Cependant, il n’est pas nécessaire de comprendre comment le cerveau fonctionne pour comprendre comment la pensée fonctionne. Encore là, tout le travail reste à faire.

      La question « Could machine think? » serait plus pertinente si nous la changions en : « Could something think, understand? ». La réponse serait non.
      La manipulation des symboles formels n’a rien d’une intention, elle n’est même pas de la manipulation de symboles car les symboles ne symbolisent rien du tout; ils sont arbitraires. Ils n’obéissent qu’à une syntaxe et non pas à une sémantique. Cela confirme que la simulation n’est pas de la duplication. Ce qui est essentiel à se rappeler, c’est qu’un système peut avoir les inputs et outputs lui permettant de parler le chinois tout en ne comprenant pas ce qu’il dit; cela s’applique autant à un humain qu’à une machine.

      Delete
    2. N.B. Je ne suis qu’un nano-nain qui essai de traduire en français, ce que des géants et des nains ont écrit en anglais. Mon texte est un résumé de ce que je crois avoir bien traduit et compris. Quand à proposer des pistes de réflexions, je peux seulement dire que j’aimerais approfondir les commentaires de François Fafard, de Tex St-Jean Ménard et d’Arnaud Laurin-Landry car ils me semblent pertinent dans la réflexion.

      Delete
  18. L’article de Searle me parait intéressant. Quand il parle de « The system reply », si je le comprends bien, c’est le niveau de T2. Tandis que quand il parle de « The robot reply », il me semble qu’il parle de T3. Ou non? Un robot qui a des bras et des jambes et tout un système sensoriel pour percevoir le monde, est-il suffisent pour le nommer T3? Si je comprends bien, à part de tous les sens, le robot doit avoir un système émotionnel. IL doit avoir une intention ou un but, une nécessité pour effectuer telle ou l’autre action. Si un humain entend un mot « vache », cet input phonétique (un symbole) évoque une image de la vache et toutes sortes d’autres images reliées au concept en question (un autre symbole). Donc, c’est juste la manipulation des symboles ou le computationnalisme. Mais il doit être quelque chose d’autre derrière ce concept de vache. Un facteur biologique? Si je comprends bien, selon Searle, un programme formel n’est pas suffisant pour représenter l’intentionnalité humaine. Il nous manque une substance physique avec son mécanisme causal. Mais est-ce que on peut récréer un système biologique en termes des effets causals? Si oui, n’est-il pas une manipulation des symboles, sauf des symboles d’autre niveau?

    ReplyDelete
  19. J’ai de la difficulté à comprendre la généralisation dans le CRA que si un programme spécifique n’est pas capable de comprendre le chinois, aucun programme ne le pourra. Dans T2 ou la CRA, le minimum pour remplir les conditions est d’exécuter une imitation parfaite. Comme le programme qui remplirait les conditions minimales n’est pas capable de comprendre le chinois (ni l’anglais d’ailleurs), on assume nécessairement qu’il serait impossible pour un quelconque programme d’en comprendre la sémantique. J’aimerais savoir d’où provient cette causalité. Quand le seul critère est d’imiter, il est «facile» d’éviter les fonctions inutiles. Selon-moi, Searle a seulement prouvé que la cognition était inutile dans le cas de T2 et CRA. Pourquoi ne pas bâtir un programme qui comprend la sémantique et lui faire passer la CRA? Il ne resterait maintenant plus qu’à prouver que la cognition dans T3 est inutile.

    ReplyDelete
  20. Excusez-moi, mais cela me faisait de plus en plus mal lors que Monsieur Searle prend chinois comme un exemple d'une langue ... bizarre,impossible de comprendre...etc. Pourtant, je connais beaucoup de mondes ici qui ont réussi à comprendre chinois.
    Puis, franchement, je trouve cela un peu drôle et choquant lors quelqu'un prend toujours chinois comme un seul exemple dans un sens plutôt négatif pour expliquer quelques choses sérieurse, or ce quelqu'un ne comprend rien quant à son exemple. Je m'excuse mais si monsieur Searle voudrais vraiment faire une recherche sérieuse, je crois qu'il devrait être beaucoup plus responsable. Il y a une sorte d'absurdité dans la théorie de Monsieur Searle.
    J'ai enfin décidé de le dire. J'avais pensé que ce n'était pas si important, que c'était seulement un exemple. Mais vue que cette Chambre Chinoise est devenue une sortie de pensée incontournable aujourd'hui dans le domaine de la science cognitive, je me sens d'être responsable de vous laisser savoir ce que je pensais. Bref, il me semble que cette Chambre Chinoise rends notre université beaucoup moins sérieux.

    ReplyDelete
  21. ''Can machines think?''

    Si j'ai bien compris, le Test de Turing consiste à un confrontation à ou un homme et un ordinateur répondent à des questions et ou un autre homme doit deviner, sans les voir, le quel des deux est l'ordinateur. S'il en est incapable, le Test de Turing fonctionne.

    Selon Turing, les machines ont toutes les capacités nécéssaire pour tromper l'homme et lui faire croire qu'il pense et interagi comme un humain.

    La question que je me pose c'est : est-ce que les machines peuvent pensées ou est-ce qu'elles nous font croire qu'elles pensent. Dans le sens ou sans leur programmation elles ne pourraient interagir avec nous. Sont-elles capable de faire les même liens que nous lorsqu'on emploi des expressions à double sens, ou encore pourrons-nous perfectionner une machine à un tel point qu'elle puissent comprendre le sarcasme ?

    Je me demande jusqu'à quel point l'être humain peut pousser la technologie robotique

    ReplyDelete
  22. This comment has been removed by the author.

    ReplyDelete