Saturday 11 January 2014

3b. Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument?

Harnad, S. (2001) What's Wrong and Right About Searle's Chinese RoomArgument? In: M. Bishop & J. Preston (eds.) Essays on Searle's Chinese Room Argument. Oxford University Press.





Searle's Chinese Room Argument showed a fatal flaw in computationalism (the idea that mental states are just computational states) and helped usher in the era of situated robotics and symbol grounding (although Searle himself thought neuroscience was the only correct way to understand the mind).

12 comments:

  1. Si j’ai bien compris, là où vous pensez que Searle échoue, c’est que bien que le CRA démontre que la cognition ne peut pas être totalement computationnelle, il se peut cependant qu’elle soit computationnelle en partie. On peut ensuite imaginer un système T2 non-computationnel qui passerait le TT, voire même un système hybride qui y arriverait. Ainsi, dites-vous, sans avoir à faire de la rétro-ingénierie de type T4 (neuro), on peut penser passer le TT avec un T3, c’est-à-dire que vous vous engagez « towards the hybrid road of grounding systems in the sensorimotor (T3) world with neural nets. » Ce dernier type serait un juste milieu entre une reproduction de la causalité neuronale(T4) et un système purement computationnelle (T2).

    Cela dit, outre le langage, j’ai de la difficulté à concevoir quelle partie du système cognitif est computationnelle dans un système hybride, puisqu’au niveau évolutif, je ne peux m’imaginer un système fonctionnant avec des symboles alors que le langage même n’est pas inventé. N’est-ce pas un peu dire que les animaux auraient une partie du fonctionnement de leur cerveau qui utiliserait des symboles, mais ils ne sauraient pas parler? Comment concevez-vous que la cognition puisse être semblable à la computation sous cet angle?

    Finalement, quand je pense à la cognition, je pense beaucoup plus à une action qu’à un résultat. Entre d’autres mots, il me semble que ce qui importe le plus, c’est la manière dont l’action est exécuter, et non le résultat. Et dans le cas du test de Turing, tout ce que l’on recherche c’est le résultat. Ne peut-on pas comparer « être conscient » à la danse? Lorsque nous dansons, ce qui est important, ce n’est pas de se rendre au bout de la danse, c’est le moment pendant que l’on danse, la cognition n’est-elle pas similaire? C’est-à-dire que ce qui importe est l’état dans lequel nous nous trouvons, beaucoup plus que la résultante d’une action x. Si tel est le cas, je ne suis pas convaincu qu’aucune sorte de computationnalisme puisse reproduire la conscience en ne se concentrant que sur le résultat et non pas sur l’action qui est exécutée. Comment pensez-vous qu’un système hybride peut créer un état de conscience?

    ReplyDelete
  2. Le CRA étant donc après tout une négation du computationalisme ''total'', devons-nous alors formuler une théorie hybride (matériel-logiciel) pour expliquer la cognition? Ou reste-il possible de de faire perdurer le concept de l'indépendance de l'implémentation?

    ReplyDelete
  3. Je suis d'avis que le computationalisme est un bon outil pour analyser certains principes de la cognition, mais qu'en effet, ce n'est qu'un sous-domaine de la cognition. Un mot important que je retiens est ''conscience''. Être conscient de son état n'est pas quelque chose de programmable.

    ReplyDelete
  4. This comment has been removed by the author.

    ReplyDelete
  5. This comment has been removed by the author.

    ReplyDelete
  6. Le computationalisme permet d'expliquer une bonne partie de notre raisonnement bien que ne pouvant les expliquer tous, car notre façon de pensées et nos stimulis relèvent de facteurs biologiques. Bien que le logiciel est indépendant d'une machine, parfois il faut bien passer par du matériel pour capter des stimulis externe comme par exemple l'odeur de quelqu'un ou les expressions faciales. Je crois donc que c'est pour cela que le propos comme quoi le cerveau est inutile. Un ordinateur pourrait imiter un cerveau à conditions bien sur de prendre en compte ces stimulis. Toutefois, un ordinateur ne peut pas avoir d'intention réelle, car elle ne comprend pas quelque chose, elle se fait dire par du code machine de les interpréter. On pourrait remplacer un cerveau humain par un microprocesseur et un disque-dur, mais on ne peut pas faire faire par la machine exactement ce qu'un cerveau fait. La conscience par exemple n'est pas quelque chose de programmable. Un ordinateur ne pense pas à voix haute dans sa tête avant d'affirmer quelque chose.

    ReplyDelete
  7. Il semble raisonnable d'imaginer la computation comme une fonction particulière de la pensée, s'additionnant à d'autres fonctions qui la forment. Je rejoins ici le commentaire que j'ai fait sur l'autre lecture de la semaine. Sans avoir plus d'explications à la théorie, je saisi le texte.

    La computation permet un roulement 'automatique' des inputs via la manipulation des symboles. Les symboles (forme, lettres, mots) ne constituent pas les poèmes, mais plutôt les symboles (fond, images, métaphores). Un processus supérieur à la computation doit répondre aux questions irrationnelles et surprenantes des contextes. Les computationnalistes diront qu'il suffit d'ajouter les données au logiciel et il sera capable d'accomplir la tâche. Par contre la Chinese room est un bien mauvais exemple de la réalité, la représentation des fonctions computationelles sont tristement limités.

    J'ai l'impression que nous discutons de la même chose depuis le début de la session sans pouvoir ajouter ou en retirer quelque chose d'absolue ou d'applicable. Les théories sentent le placard ou l'utilité a été remisée.

    Les Vulcains sont d'une logique implacable, mais ils ne tombent pas en amour.

    ReplyDelete
  8. Quand je lisais l’article de Searle, j’avais quand même l’impression qu’il stipulait que le système formel ne pouvait pas être une condition suffisante pour représenter l’intentionnalité. Donc, j’ai fait une conclusion qui me semblait logique que le système formel pourrait constituer un élément de la cognition. Pour expliquer la cognition, on a besoin du système qui manipule des symboles, mais ce système n’est pas suffisant. Donc, le système formel pourrait faire partie d’un autre système qui n’est pas computationnel.

    ReplyDelete
  9. Dans l’article, Searle croit démontrer que la cognition n’est pas du tout de la cognition. Ce qu’on vous lui reprochez notamment, c’est qu’il ne parvient à prouver qu’une partie de cette conclusion ; en fait, la cognition n’est, au moins en partie, pas de la computation.

    Mais la preuve faite par Searle pourrait encore se baser sur des prémisses infondées. On pourrait remettre en question la façon de définir « comprendre », mais assez de stipulations ont déjà été faites sur cette objection. Ce que je remarque, c’est que Searle est très rapide pour mettre la computation de côté. Je crois plutôt que notre définition de computation devra s’ajuster avec des découvertes qui pourraient être faites sur le sujet.

    Nous nous demandons comment la génération d’un esprit autonome pourrait être possible dans un ordinateur. Sous prétexte qu’il manquerait un facteur différent de la computation pour créer un esprit autonome, il nous arrive de présumer que la conscience humaine doit au moins être autre chose que de la computation pour pouvoir détenir l’esprit. Nous ne savons pourtant pas non plus ce qui crée la conscience chez l’homme. Pour autant que nous le sachions, il se pourrait que la conscience humaine ne survienne qu’après la synthétisation d’une protéine encore inconnue de notre science. Il se pourrait aussi que la conscience humaine ne survienne qu’après avoir atteint un assez grand nombre d’influx synaptique à la seconde. S’il ne fallait qu’une certaine quantité d’activité électrique ou un assez grand nombre de neurones pour que le cerveau détienne la conscience, il serait possible que ce soit semblable pour l’ordinateur.

    En son cœur, l’ordinateur a un processeur. Le processeur contient un nombre très grand de petites portes (transistors) qui s’ouvrent lorsqu’elles reçoivent un 0 et qui se ferment lorsqu’elles reçoivent un 1. La dernière génération de processeurs sur le marché parvient à atteindre plus de 300 milliards d’actions à la seconde* (ou nombre de portes qui peuvent s’ouvrir ou se fermer).

    La loi de Moore veut que cette puissance double aux deux ans, et la théorie tient depuis environ 50 ans**. Si la tendance se maintient, les ordinateurs effectueront bien plus d’actions à la seconde que ce que nous arrivons à faire aujourd’hui. La question est la suivante : et si une conscience autonome surgissait d’elle-même, lorsqu’un certain de cap de force est atteint ?

    Bref, je crois que la preuve n’est pas définitive dans le cas de Searle, sur le fait que nous ne savons toujours pas ce dont est capable l’ordinateur.

    * Wikipédia : wiki/instructions_per_second
    ** wiki/moore’s_law

    ReplyDelete
  10. Ce que je retire principalement jusqu’à présent, c’est qu’on comprend que la computation est une certaine partie des fonctions cognitives, mais elle est loin de l’être en totalité. C’est surement plus compliqué que ça, mais il me semble que le simple fait que l’ordinateur ne possède pas de conscience ou d’émotions est assez pour qu’on comprenne que la machine ne pourras jamais imiter parfaitement le cerveau humain. Bien que la machine soit capable de faire certaines choses en arrivant au même résultat que l’homme, elle ne passeras pas par le même processus et la différence est là.

    ReplyDelete
  11. Searle pense à tort que le CRA invalide complètement le computationnalisme, alors que la computation doit faire partie de l’équation quant à la nature de la cognition. La réponse du système montre bien cette aspect de la cognition : une partie doit forcément être du calcul, bien que pas entièrement!

    ReplyDelete
  12. Si j'ai bien compris, Searle se trompe au sujet du CRA. Il ignore le computationnalisme des le début de son texte et se concentre plus sur la cognition. Il démontre que la computation n'est qu'en partie la cognition. Pour moi si un ordinateur ne peut généré la pensé, les émotions, les intuitions etc. et bien il ne peux imité le cerveau humain. Peut importe si une machine peut réagir et répondre comme un être humain, il n'en est pas un et selon moi il en sera jamais un.

    ReplyDelete