Informations

Comment la machine peut-elle posséder une conscience si le calcul est une idée humaine ?

Comment la machine peut-elle posséder une conscience si le calcul est une idée humaine ?

Supposons qu'un ordinateur simule un cerveau humain pour qu'il réussisse le test de Turing. Supposons que ce cerveau reçoive des stimuli sensoriels qui correspondent à une expérience d'être dans un monde semblable à la Terre. D'après ma compréhension, les partisans du computationalisme supposent que ce cerveau simulé aurait des qualia.

Le réseau de neurones, son état et le code du programme sont stockés sur un ordinateur et ne peuvent être observés que si quelqu'un sait comment utiliser cet ordinateur. La façon dont un réseau de neurones est représenté en mémoire et sur disque dépend des structures de données, de l'architecture informatique, de l'endianité, etc.

Supposons alors que le dernier humain sur Terre meure, mais la simulation continue de fonctionner sur l'ordinateur. S'il n'y a personne dans l'Univers qui comprend le fonctionnement de cet ordinateur particulier, alors personne ne serait capable d'observer ce cerveau simulé. En d'autres termes, ce cerveau serait impossible à « décoder », et pourtant il expérimenterait toujours les qualia.

Il s'ensuit que si tel est le cas, alors rien n'empêche d'autres cerveaux « invisibles » d'exister.

Nous Sachez qu'un ordinateur est un appareil de calcul et qu'il exécute un réseau neuronal complexe qui correspond à un esprit semblable à celui d'un humain, mais l'Univers ne le « connaît » pas. Il est notre interprétation de ce qui se passe. Je ne peux pas m'écarter de la conclusion que si la prémisse est vraie, alors il peut y avoir différents processus qui correspondent isomorphe aux calculs, dont certains peuvent correspondre isomorphe aux esprits, mais nous ne le saurons pas parce que nous ne voyons pas cela isomorphisme.

Pourquoi les processus à l'intérieur du Soleil ne pourraient-ils pas correspondre à un calcul (quoique de manière non directe) qui correspond à un esprit ? Selon cette logique, il pourrait y avoir une infinité d'esprits, tous connaissant des sortes de qualia, « encodés » de différentes manières dans tous les processus du monde.

A l'inverse, et si on remplaçait un ordinateur par un homme (avec une grande durée de vie) suivant méticuleusement l'algorithme sur papier. Ses calculs donneraient-ils naissance à une conscience dans un cerveau simulé sur papier ?

Cela n'a tout simplement pas de sens pour moi. Les informaticiens le croient-ils ou ont-ils un contre-argument ?


Introduction

Vos pensées semblent à cheval sur le panpsychisme et le computationalisme. Il est également possible que vous souleviez simplement une question sur le physicalisme : "si les pensées mentales sont le résultat d'interactions physiques, alors pourquoi la conscience serait-elle limitée aux choses avec un cerveau ?". Eh bien, la réponse courte est que ce n'est fondamentalement pas le cas, mais ce n'est pas non plus une réaction de fusion et vous ne les voyez pas apparaître partout. Ils n'apparaissent (ou « émergent », pour ainsi dire) qu'à des endroits spécifiques où les conditions sont parfaites. Ainsi, le physicaliste présume, fait l'esprit. Je noterai également que le physicalisme (une forme de monisme) est fondamentalement la position scientifique dominante.

Informatique

Notez que votre suggestion :

Ses calculs donneraient-ils naissance à une conscience dans un cerveau simulé sur papier ?

serait une interprétation extrême du computationalisme. À la base, le computationalisme dit simplement que les états mentaux sont fondés sur des représentations mentales (sémantique) opérant sur le contexte (syntaxe) : ils font partie du processus cognitif. Les informaticiens individuels peuvent interpréter, à des degrés divers, à quel point les exigences sont strictes sur le matériel sous-jacent.

Linguistique chomskienne et La théorie de la vision de David Marr étaient deux études empiriques qui ont vraiment influencé la perception des scientifiques cognitifs en faveur du computationalisme dans les années 70. La littérature neuroscientifique plus récente a favorisé le point de vue connexionniste (notez que les deux ne sont pas nécessairement mutuellement exclusifs).

Une revue de littérature plus récente sur la conscience, Vers une neuroscience cognitive de la conscience : preuves de base et cadre d'espace de travail, résume ses conclusions empiriques :

Trois découvertes empiriques fondamentales sur la conscience:

  1. Le traitement cognitif est possible sans conscience
  2. L'attention est une condition préalable de la conscience
  3. La conscience est requise pour des opérations mentales spécifiques

3. semblerait être compatible avec le computationalisme (l'union du calcul et de la conscience). Plus de soutien pour le informaticien position:

Le principe de l'énergie libre : une théorie unifiée du cerveau ?

Les agents peuvent supprimer l'énergie libre en changeant les deux choses dont elle dépend : ils peuvent changer les entrées sensorielles en agissant sur le monde ou ils peuvent changer leur densité de reconnaissance en changeant leurs états internes. Cette distinction correspond bien à l'action et à la perception

Le connexionnisme :

Une autre perspective empirique vient d'une autre vision physicaliste appelée connexionnisme. Le connexionnisme a gagné en popularité parmi les neuroscientifiques à mesure que nous développons une technologie pour mieux sonder les cerveaux et modéliser les mécanismes neuronaux par ordinateur.

La conscience comme information intégrée : un manifeste provisoire

(i) la quantité de conscience correspond à la quantité d'informations intégrées générées par un complexe d'éléments ; (ii) la qualité de l'expérience est spécifiée par l'ensemble des relations informationnelles générées au sein de ce complexe.

Quelques littératures qui soutiennent l'idée de Tononi :

Rupture de la connectivité corticale effective pendant le sommeil.

Un indice de conscience basé sur la théorie, indépendant du traitement sensoriel et du comportement

Plus de soutien pour connexionnisme:

Le brainweb : synchronisation de phases et intégration à grande échelle

L'émergence d'un moment cognitif unifié repose sur la coordination de mosaïques éparses de régions cérébrales fonctionnellement spécialisées.


Réponse courte : c'est ce qu'on appelle officiellement le problème difficile de la conscience - si vous pouvez le comprendre, vous gagnerez probablement un prix Nobel :

Le problème difficile de la conscience est le problème d'expliquer comment et pourquoi nous avons des qualia ou des expériences phénoménales - comment les sensations acquièrent des caractéristiques, telles que les couleurs et les goûts.

Notez que ce problème suppose que les "qualia" sont des constructions valides, ce qui n'est pas universellement accepté (voir une autre question pour en savoir plus à ce sujet). Toutes les variantes du fonctionnalisme (y compris le béhaviorisme, le physicalisme et le computationalisme) ont ce problème si elles acceptent les qualia comme valides.

et si on remplaçait un ordinateur par un homme (avec une grande durée de vie) suivant méticuleusement l'algorithme sur papier. Ses calculs donneraient-ils naissance à une conscience dans un cerveau simulé sur papier ?

Ironiquement, le terme « ordinateur » désignait un homme. Il fut un temps où les "ordinateurs" étaient des gens qui… calculaient. Alan Turing a fait référence à de tels "ordinateurs" traitant des symboles sur des "bandes" (bobines de papier) lorsqu'il a décrit les machines informatiques dans ses articles très prémonitoires sur l'intelligence artificielle et l'apprentissage automatique dans la première moitié du 20e siècle.

Ces « machines à papier » ont conduit le philosophe Ned Block à formuler l'expérience de pensée de la nation chinoise (1978) :

Supposons que toute la nation chinoise soit réorganisée pour simuler le fonctionnement d'un seul cerveau (c'est-à-dire pour agir comme un esprit selon le fonctionnalisme). Chaque personne chinoise agit comme (disons) un neurone et communique par radio bidirectionnelle spéciale de la manière correspondante avec les autres personnes. L'état mental actuel du cerveau chinois est affiché sur des satellites qui peuvent être vus de n'importe où en Chine. Le cerveau chinois serait alors connecté par radio à un corps, celui qui fournit les entrées sensorielles et les sorties comportementales du cerveau chinois.

Notez que cela diffère de l'argument de la chambre chinoise de John Searle, qui se concentre sur la question de savoir si le système « comprend », tandis que l'expérience du cerveau chinois se concentre sur le fait que la machine donne lieu à la phénoménologie (qualia).

Nous savons qu'un ordinateur est un appareil de calcul et qu'il exécute un réseau neuronal complexe qui correspond à un esprit semblable à celui d'un humain, mais l'Univers ne le « connaît » pas. C'est notre interprétation de ce qui se passe.

En parlant de John Searle :

… les processus informationnels sont relatifs à l'observateur : les observateurs choisissent certains modèles dans le monde et les considèrent comme des processus d'information, mais les processus d'information ne sont pas eux-mêmes des choses-dans-le-monde. Puisqu'ils n'existent pas au niveau physique, soutient Searle, ils ne peuvent pas avoir d'efficacité causale et ne peuvent donc pas provoquer la conscience.

Notez que cet argument n'est en aucun cas universellement accepté (exemple, exemple).

Pourquoi les processus à l'intérieur du Soleil ne pourraient-ils pas correspondre à un calcul (quoique de manière non directe) qui correspond à un esprit ? Selon cette logique, il pourrait y avoir une infinité d'esprits, tous connaissant des sortes de qualia, « encodés » de différentes manières dans tous les processus du monde.

C'est ce qu'on a appelé "l'argument de la trivialité". Il existe 4 exemples bien connus dans la littérature : le seau de Hinck, le mur de Searle (WordStar), le rocher de Putnam et l'horloge et le cadran de Chalmers. Ces philosophes soutiennent que - loin d'avoir besoin d'un Soleil - les objets du quotidien tels que les murs, les rochers et les seaux d'eau ont une complexité suffisante pour coder des états de conscience informatique.

Un concept similaire est un « cerveau Boltzmann » :

… une entité consciente qui survient en raison de fluctuations aléatoires extrêmement rares hors d'un état d'équilibre thermodynamique… par hasard, avons exactement les mêmes perceptions que nous…

Les philosophes utilisent souvent de telles expériences de pensée pour argumenter par reductio ad absurdum. Cependant, juste parce que quelque chose semble absurde ou n'a pas de sens, ne signifie pas nécessairement que c'est faux (prenez par exemple, l'expérience de pensée du chat de Schrödinger), donc ce type d'argument a des limites lorsqu'il est appliqué à un mystère tel que la conscience. La réalité est que nous ne savons pas comment ou si les machines peuvent devenir conscientes (voir une autre question pour en savoir plus à ce sujet).


Ceci étant cogsci.SE, et non philosophie.SE, nous ne pouvons pas simplement accepter une définition philosophique de la conscience. Du point de vue de la science expérimentale, il n'y a pas d'opérationnalisation universellement acceptée de la « conscience ».

Par exemple, il est impossible de mesurer directement la conscience. Une approche habituelle consiste à laisser les sujets humains rapporter leurs pensées. Mais bien sûr, nous ne savons pas s'ils rapportent sincèrement (toutes) leurs pensées conscientes, ou s'ils se trompent peut-être même sur ce qui se passe dans leur esprit. Aussi, nous sommes donc incapables de rechercher la conscience d'êtres avec lesquels nous ne pouvons pas communiquer (de manière fiable), tels que les animaux, les enfants et les personnes handicapées. Ce que nous faisons, c'est déduire d'un comportement que apparaît à nous de refléter la conscience que la conscience doit être présente. Mais des expériences ont montré que même les sujets humains peuvent montrer un tel comportement (par exemple délibéré) alors qu'ils en sont eux-mêmes complètement inconscients (c'est-à-dire non conscients). La seule conscience directement accessible au chercheur est la sienne, mais l'introspection a été largement abandonnée en tant que méthode scientifique fiable il y a plus de cent ans, car, bien sûr, du point de vue de les autres gens nos rapports ne sont pas dignes de confiance pour les raisons décrites ci-dessus.

Ce qui s'ensuit, c'est que si les sciences cognitives tentative pour étudier la conscience, ils n'ont pas encore imaginé un moyen de la mesurer. Nous, les scientifiques cognitifs, sommes donc incapables de conclure si un ordinateur, un logiciel ou le soleil ont une conscience. Ce qui rend les discussions sur le statut de cette conscience après la disparition des êtres humains plutôt futiles pour nous.

Mais je suis sûr que les philosophes pourront écrire des livres entiers sur le sujet ;-) Vous pourriez leur demander.


Voir la vidéo: Es la Biomecánica el futuro? Ajusta la posición de tu bici con Big Data: ID Match de Selle Italia (Décembre 2021).