L’intelligence artificielle peut elle avoir une conscience ?
Le 15 avril 2024 à 18:02:17 :
Le jour où l'intelligence artificielle manifestera de la peur d'elle même pour sa survie tu auras ta réponse![]()
L'instinct de survie n'est pas lié à la conscience puisqu'il existe des êtres non conscients qui l'ont (organismes uni cellulaires) et des êtres conscients qui ne l'ont pas (puisqu'ils se suicident)
Le 15 avril 2024 à 18:01:01 :
Le 15 avril 2024 à 17:59:50 :
Le 15 avril 2024 à 17:55:04 :
Le 15 avril 2024 à 17:54:32 :
Le 15 avril 2024 à 17:51:33 :
> Le 15 avril 2024 à 17:40:08 :
>En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.
>
> En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
> Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.
Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Pas du tout d'accord avec toi. Nos algorithmes actuels n'ont aucune capacité de se représenter quoique ce soit
Regarde la dernière vidéo de monsieur phi.
Je vais regarder. Mais aussi spectaculaire que sois les performance de nos modèles de langage, je maintiens que ça n'a absolument rien à voir avec une quelconque forme d'intelligence. Ce sont juste des suites plausibles de mots. Y a aucune forme de raisonnement de raisonnement derrière, juste une suite de mots même chose avec les échecs
Il faut bien parvenir à déterminer, à choisir quel mot ou quel coup est le plus probable non?
![]()
Bien sûr c'est pour ça qu'on utilise une immense base de donnée et un modèle statistique qui a été "entrainé" jusqu'à ce qu'il donne des réponses qui nous satisfassent. C'est comme ça que fonctionnent toutes les IA génératives.
Le 15 avril 2024 à 18:03:43 :
Le 15 avril 2024 à 17:47:35 :
Le 15 avril 2024 à 17:45:00 :
Le 15 avril 2024 à 17:29:02 :
Le 15 avril 2024 à 17:19:53 :
> Le 15 avril 2024 à 17:13:43 :
>> Le 15 avril 2024 à 17:11:17 :
> >Évidemment que non. Une IA peut même pas ne serait ce qu’avoir la capacité à avoir une intuition. L’IA peut meme pas se retrouver dans un état contemplatif ou imaginaire. Mais ça va parler de conscience de l’IA
>
> Un chat peut avoir une intuition (donc anticiper quelque chose) mais un chat n'est, jusqu'à preuve du contraire, pas capable de contempler ou d'imaginer. Un chat n'est pas conscient selon toi?
![]()
Anticipation qui va découler d’un certain instinct. L’instinct chez les animaux n’est pas de l’ordre de l’irrationnel.
Un animal est doué de sensibilité mais est ce qu’il a pour autant une conscience ? Je sais pas.
Dans tout les cas, je ne vois pas en quoi la comparaison est pertinente avec l’IA vue que celle-ci est guidé par la rationalité et l’efficacité alors que l’animal est guidé par son instinct.
La capacité d'anticipation ou l'instinct est aussi due à la capacité à stocker de l'information et à l'analyser.
Pour ce qui est de la rationalité : il n'existe qu'une forme de conscience? Donc le fait que l'être humain soit aussi un être rationnel l'empêche d'être conscient? Ou alors il peut y avoir des êtres conscients purement irrationnels (le monde animal et végétal) des êtres conscients à la fois rationnels et irrationnels (selon le contexte) mais pas d'êtres conscients purement rationnels?
![]()
Il peut pas y avoir d’intuition avec un calcul. L’intuition est irrationnel par essence. Avoir une intuition ne découle pas d’un processus transparent avec des calculs.
L’anticipation peut venir soit de l’intuition soit du rationnel. Anticipation n’est pas = à intuition.
L’homme a aussi une part de mystère en lui bien qu’il soit rationnel. Ta question c’est de savoir si un être juste rationnel peut être conscient ? Je sais pas, j’en connais pas. Mais la question qu’il faut se poser est de savoir si une IA est un être ? La question est négative.
Est ce qu’un non être peut avoir une conscience ? Est ce qu’une chose purement artificiel, qui n’a aucune vitalité et aucune essence peut avoir une conscience ?
Bien sûr que si, l'intuition peut très bien être le fruit de calcul "en arrière tâche" produits dans le subconscient
![]()
Pourquoi quelque chose de purement artificiel ne pourrait pas être conscient? Si demain on clone un être humain ou qu'on en produit un en laboratoire à partir de gamètes synthétiques, il ne sera pas conscient? Parce que c'est ce à quoi revient ton argument
![]()
Tu peux pas mettre au même niveau le calcul « en arrière tache » authentique et transcendant propre a la nature humaine avec celui de l’IA qui encore une fois n’est guidé que par la loi de la rationalité et de l’efficacité. Et je répète que l’homme n’est pas aussi transparent que l’IA, il obéit à d’autre lois que la rationalité.
Bonne question.
Je parlais plutôt du chat et de son intuition/instinct pas nécessairement de l'intuition humaine qui me paraît (à première vue) plus complexe à traiter
Le 15 avril 2024 à 18:02:36 :
Le 15 avril 2024 à 18:00:34 :
Le 15 avril 2024 à 17:51:33 :
Le 15 avril 2024 à 17:40:08 :
En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.
C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon
ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient
![]()
Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup.
Le 15 avril 2024 à 18:06:00 :
Le 15 avril 2024 à 18:01:01 :
Le 15 avril 2024 à 17:59:50 :
Le 15 avril 2024 à 17:55:04 :
Le 15 avril 2024 à 17:54:32 :
> Le 15 avril 2024 à 17:51:33 :
>> Le 15 avril 2024 à 17:40:08 :
> >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.
> >
> > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
> > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.
>
> Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Pas du tout d'accord avec toi. Nos algorithmes actuels n'ont aucune capacité de se représenter quoique ce soit
Regarde la dernière vidéo de monsieur phi.
Je vais regarder. Mais aussi spectaculaire que sois les performance de nos modèles de langage, je maintiens que ça n'a absolument rien à voir avec une quelconque forme d'intelligence. Ce sont juste des suites plausibles de mots. Y a aucune forme de raisonnement de raisonnement derrière, juste une suite de mots même chose avec les échecs
Il faut bien parvenir à déterminer, à choisir quel mot ou quel coup est le plus probable non?
![]()
Bien sûr c'est pour ça qu'on utilise une immense base de donnée et un modèle statistique qui a été "entrainé" jusqu'à ce qu'il donne des réponses qui nous satisfassent. C'est comme ça que fonctionnent toutes les IA génératives.
Oui bon c'est aussi comme ça qu'on éduque un humain en "l'entraînant" jusqu'à ce que son comportement nous satisfasse. Attention je ne dis pas que l'IA est déjà consciente, je dis que ta réfutation à la question de savoir si elle l'est est un peu légère
Le 15 avril 2024 à 18:07:38 :
Le 15 avril 2024 à 18:02:36 :
Le 15 avril 2024 à 18:00:34 :
Le 15 avril 2024 à 17:51:33 :
Le 15 avril 2024 à 17:40:08 :
En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.
C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon
ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient
![]()
Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup.
L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures pour moi l'IA en est là (de manière imagée bien sûr)
Le 15 avril 2024 à 18:05:27 :
Le 15 avril 2024 à 18:02:17 :
Le jour où l'intelligence artificielle manifestera de la peur d'elle même pour sa survie tu auras ta réponse![]()
L'instinct de survie n'est pas lié à la conscience puisqu'il existe des êtres non conscients qui l'ont (organismes uni cellulaires) et des êtres conscients qui ne l'ont pas (puisqu'ils se suicident)
![]()
Le 15 avril 2024 à 18:09:28 :
Le 15 avril 2024 à 18:05:27 :
Le 15 avril 2024 à 18:02:17 :
Le jour où l'intelligence artificielle manifestera de la peur d'elle même pour sa survie tu auras ta réponse![]()
L'instinct de survie n'est pas lié à la conscience puisqu'il existe des êtres non conscients qui l'ont (organismes uni cellulaires) et des êtres conscients qui ne l'ont pas (puisqu'ils se suicident)
![]()
Le 15 avril 2024 à 18:04:29 :
Le 15 avril 2024 à 18:01:04 :
Le 15 avril 2024 à 17:53:04 :
Le 15 avril 2024 à 17:51:22 :
Oui, mais pas comme celle de l'Homme, dû au fait que le moyen d'analyse des informations est différent.
Mais avant que les machines soient conscientes, elles doivent d'abord être vivantes, être capable de s'entretenir et de se multiplier toutes seules.la question n'est pas de savoir si l'IA peut-être vivante (auquel cas effectivement elle devrait remplir ces critères) mais si elle peut être consciente
![]()
La je ne suis pas d'accord avec toi , pour moi être vivant =/= a être conscient ce n'est peut être même pas une condition nécessaire (a défaut d'être suffisante)
Oui c'est ce que je dis : les critères qu'il cite seraient intéressants si l'on voulait répondre à la question "l'IA peut-elle être vivante" mais pas à la question actuelle qui est de savoir si elle peut devenir consciente. Et je suis aussi d'accord avec toi sur l'idée que la conscience n'est pas nécessairement lié au vivant (puisque je crois en Dieu) ni une condition (nécessaire ou contingente) du vivant (puisqu'il existe des formes de vie non conscientes, pourquoi pas des formes de non-vie conscientes?)
![]()
Dieu est vivant
Mais selon une définition métaphysique
Le 15 avril 2024 à 18:08:55 :
Le 15 avril 2024 à 18:07:38 :
Le 15 avril 2024 à 18:02:36 :
Le 15 avril 2024 à 18:00:34 :
Le 15 avril 2024 à 17:51:33 :
> Le 15 avril 2024 à 17:40:08 :
>En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.
>
> En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
> Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.
Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.
C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon
ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient
![]()
Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup.
L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures
pour moi l'IA en est là (de manière imagée bien sûr)
![]()
J'ai compris ce que tu veux dire mais pour que ce soit le cas il faudrait qu'on ait les débuts des principes nécessaires à la conscience de l'IA, ce qui n'est pas le cas.
Le 15 avril 2024 à 18:00:34 :
Le 15 avril 2024 à 17:51:33 :
Le 15 avril 2024 à 17:40:08 :
En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.
La conscience c'est encore à part, laissons ça de côté. Mais pour l'intelligence si. L'intelligence ce n'est jamais que la capacité à abstraire. Et c'est précisément ce que font les modèles d'apprentissages : créer des représentations abstraites de données dans des modèles paramétrés.
Y a des expérimentations qui montrent comment par exemple des modèles entraînés à prédire des résultats arithmétiques modulaires se mettaient à avoir une représentation interne qui correspondait à la façon usuelle de représenter de telles arithmétique. Le modèle encode littéralement la logique de l'arithmétique qu'on lui donne. C'est ça comprendre : saisir la chose dans son essence abstraite. Et y a d'autres exemples. Genre les LLM entraînés sur des coups d'échecs qui en analysant leur poids permettent de reconstituer le plateau de jeu alors mêmes qu'on ne leur a que montrer des suites de coups.
Le 15 avril 2024 à 18:11:38 :
Le 15 avril 2024 à 18:04:29 :
Le 15 avril 2024 à 18:01:04 :
Le 15 avril 2024 à 17:53:04 :
Le 15 avril 2024 à 17:51:22 :
Oui, mais pas comme celle de l'Homme, dû au fait que le moyen d'analyse des informations est différent.
Mais avant que les machines soient conscientes, elles doivent d'abord être vivantes, être capable de s'entretenir et de se multiplier toutes seules.la question n'est pas de savoir si l'IA peut-être vivante (auquel cas effectivement elle devrait remplir ces critères) mais si elle peut être consciente
![]()
La je ne suis pas d'accord avec toi , pour moi être vivant =/= a être conscient ce n'est peut être même pas une condition nécessaire (a défaut d'être suffisante)
Oui c'est ce que je dis : les critères qu'il cite seraient intéressants si l'on voulait répondre à la question "l'IA peut-elle être vivante" mais pas à la question actuelle qui est de savoir si elle peut devenir consciente. Et je suis aussi d'accord avec toi sur l'idée que la conscience n'est pas nécessairement lié au vivant (puisque je crois en Dieu) ni une condition (nécessaire ou contingente) du vivant (puisqu'il existe des formes de vie non conscientes, pourquoi pas des formes de non-vie conscientes?)
![]()
Dieu est vivant
Mais selon une définition métaphysique
Je parle, évidemment, de la définition matérielle et biologique de ce qui est vivant parce que sinon on peut considérer tout ce qui existe comme vivant puisque le propre du vivant métaphysique est d'être conscient sans corps matériel
Le 15 avril 2024 à 18:08:10 :
Le 15 avril 2024 à 18:06:00 :
Le 15 avril 2024 à 18:01:01 :
Le 15 avril 2024 à 17:59:50 :
Le 15 avril 2024 à 17:55:04 :
> Le 15 avril 2024 à 17:54:32 :
>> Le 15 avril 2024 à 17:51:33 :
> >> Le 15 avril 2024 à 17:40:08 :
> > >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.
> > >
> > > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
> > > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.
> >
> > Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
>
> Pas du tout d'accord avec toi. Nos algorithmes actuels n'ont aucune capacité de se représenter quoique ce soit
Regarde la dernière vidéo de monsieur phi.
Je vais regarder. Mais aussi spectaculaire que sois les performance de nos modèles de langage, je maintiens que ça n'a absolument rien à voir avec une quelconque forme d'intelligence. Ce sont juste des suites plausibles de mots. Y a aucune forme de raisonnement de raisonnement derrière, juste une suite de mots même chose avec les échecs
Il faut bien parvenir à déterminer, à choisir quel mot ou quel coup est le plus probable non?
![]()
Bien sûr c'est pour ça qu'on utilise une immense base de donnée et un modèle statistique qui a été "entrainé" jusqu'à ce qu'il donne des réponses qui nous satisfassent. C'est comme ça que fonctionnent toutes les IA génératives.
Oui bon c'est aussi comme ça qu'on éduque un humain en "l'entraînant" jusqu'à ce que son comportement nous satisfasse. Attention je ne dis pas que l'IA est déjà consciente, je dis que ta réfutation à la question de savoir si elle l'est est un peu légère
![]()
oui enfin le point central de ma réponse c'était que les IA s'appuient fondamentalement sur une immense base de donnée avec une approche statistique.
La capacité "d'apprentissage" est effectivement une particularité de cette famille d’algorithme. Mais fondamentalement cette capacité d'apprentissage revient juste à modifier la base de donnée, rien de plus...
Le 15 avril 2024 à 18:08:55 :
Le 15 avril 2024 à 18:07:38 :
Le 15 avril 2024 à 18:02:36 :
Le 15 avril 2024 à 18:00:34 :
Le 15 avril 2024 à 17:51:33 :
> Le 15 avril 2024 à 17:40:08 :
>En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.
>
> En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
> Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.
Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.
C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon
ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient
![]()
Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup.
L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures
pour moi l'IA en est là (de manière imagée bien sûr)
![]()
Sauf que le fonctionnement d'un cerveau n'a rien à voir avec celui d'un algorithme à plusieurs millions de paramètres
Pour que l'IA apprenne quelque chose de nouveau il lui faut plusieurs minutes le temps d'actualiser tous les paramètres du bousin alors que le cerveau le fait en temps réel. Et l'apprentissage se fait uniquement avec des fonctions d'erreurs contrairement à un humain qui est rationnel
Les ia ne seront jamais conscientes, pas avec la technologie actuelle les golems
Le 15 avril 2024 à 18:13:03 :
Le 15 avril 2024 à 18:08:55 :
Le 15 avril 2024 à 18:07:38 :
Le 15 avril 2024 à 18:02:36 :
Le 15 avril 2024 à 18:00:34 :
> Le 15 avril 2024 à 17:51:33 :
>> Le 15 avril 2024 à 17:40:08 :
> >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.
> >
> > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
> > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.
>
> Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.
C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon
ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient
![]()
Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup.
L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures
pour moi l'IA en est là (de manière imagée bien sûr)
![]()
J'ai compris ce que tu veux dire mais pour que ce soit le cas il faudrait qu'on ait les débuts des principes nécessaires à la conscience de l'IA, ce qui n'est pas le cas.
Certes, on est sûrement beaucoup plus en arrière dans la chaîne de l'évolution, on pourrait voir l'IA actuelle comme les premiers organismes unicellulaires apparus sur terre à l'échelle de l'IA
Le 15 avril 2024 à 18:13:04 :
Le 15 avril 2024 à 18:00:34 :
Le 15 avril 2024 à 17:51:33 :
Le 15 avril 2024 à 17:40:08 :
En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.
La conscience c'est encore à part, laissons ça de côté. Mais pour l'intelligence si. L'intelligence ce n'est jamais que la capacité à abstraire. Et c'est précisément ce que font les modèles d'apprentissages : créer des représentations abstraites de données dans des modèles paramétrés.
Y a des expérimentations qui montrent comment par exemple des modèles entraînés à prédire des résultats arithmétiques modulaires se mettaient à avoir une représentation interne qui correspondait à la façon usuelle de représenter de telles arithmétique. Le modèle encode littéralement la logique de l'arithmétique qu'on lui donne. C'est ça comprendre : saisir la chose dans son essence abstraite. Et y a d'autres exemples. Genre les LLM entraînés sur des coups d'échecs qui en analysant leur poids permettent de reconstituer le plateau de jeu alors mêmes qu'on ne leur a que montrer des suites de coups.
C'est le sujet du topic
Le 15 avril 2024 à 18:13:34 :
Le 15 avril 2024 à 18:08:10 :
Le 15 avril 2024 à 18:06:00 :
Le 15 avril 2024 à 18:01:01 :
Le 15 avril 2024 à 17:59:50 :
> Le 15 avril 2024 à 17:55:04 :
>> Le 15 avril 2024 à 17:54:32 :
> >> Le 15 avril 2024 à 17:51:33 :
> > >> Le 15 avril 2024 à 17:40:08 :
> > > >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.
> > > >
> > > > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
> > > > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.
> > >
> > > Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
> >
> > Pas du tout d'accord avec toi. Nos algorithmes actuels n'ont aucune capacité de se représenter quoique ce soit
>
> Regarde la dernière vidéo de monsieur phi.
Je vais regarder. Mais aussi spectaculaire que sois les performance de nos modèles de langage, je maintiens que ça n'a absolument rien à voir avec une quelconque forme d'intelligence. Ce sont juste des suites plausibles de mots. Y a aucune forme de raisonnement de raisonnement derrière, juste une suite de mots même chose avec les échecs
Il faut bien parvenir à déterminer, à choisir quel mot ou quel coup est le plus probable non?
![]()
Bien sûr c'est pour ça qu'on utilise une immense base de donnée et un modèle statistique qui a été "entrainé" jusqu'à ce qu'il donne des réponses qui nous satisfassent. C'est comme ça que fonctionnent toutes les IA génératives.
Oui bon c'est aussi comme ça qu'on éduque un humain en "l'entraînant" jusqu'à ce que son comportement nous satisfasse. Attention je ne dis pas que l'IA est déjà consciente, je dis que ta réfutation à la question de savoir si elle l'est est un peu légère
![]()
oui enfin le point central de ma réponse c'était que les IA s'appuient fondamentalement sur une immense base de donnée avec une approche statistique.
La capacité "d'apprentissage" est effectivement une particularité de cette famille d’algorithme. Mais fondamentalement cette capacité d'apprentissage revient juste à modifier la base de donnée, rien de plus...
Ben c'est pas la définition "d'apprendre" de mettre à jour ses connaissances?
Le 15 avril 2024 à 18:14:05 :
Le 15 avril 2024 à 18:13:03 :
Le 15 avril 2024 à 18:08:55 :
Le 15 avril 2024 à 18:07:38 :
Le 15 avril 2024 à 18:02:36 :
> Le 15 avril 2024 à 18:00:34 :
>> Le 15 avril 2024 à 17:51:33 :
> >> Le 15 avril 2024 à 17:40:08 :
> > >En théorie c'est possible. La conception matérialiste c'est justement de considérer que la pensée n'est qu'une activité issue d'une organisation très complexe de la matière. Il y a donc pas de différence fondamentale entre un être vivant et une machine, si ce n'est la complexité.
> > >
> > > En pratique, je doute fortement qu'on en soit capable un jour. En tout cas, on en est vraiment très loin. Même ce qu'on appelle faussement "IA" aujourd'hui ne peut même pas être considéré comme une ébauche de pensée ou d'intelligence, ça n'a juste rien à voir. Dire qu'on est à "l'âge de pierre de l'IA" est déjà très exagéré à mon avis.
> > > Si un jour on arrive à créer une ébauche d'intelligence générale de manière artificielle, ce sera avec une technologie radicalement différente de nos petits algorithmes statistiques actuels. Il faudrait commencer par donner corps à la machine, lui donner une vraie perception sensorielle. Et ensuite qu’elle soit capable de traiter ces informations de manière largement plus complexe que ce qu'on sait faire aujourd'hui.
> >
> > Ce qu'on a aujourd'hui c'est déjà de l'intelligence. C'est-à-dire une capacité à représenter des données de façon abstraite. C'est juste que les méthodes actuelles avec des grosses bases de données ne sont capable de faire que des IA qui ont des approximations de nos propres abstractions, donc qui ne peuvent pas en sortir, en penser de nouvelles etc. D'où le fait que ça soit limité. Mais on ne peut pas dire qu'il y a quelque chose de radicalement différent entre ce que sont déjà les IA et ce que seraient des AGI. Peut-être la méthode sera différente pour dépasser la limite actuelle, mais ce que des AGI comprendront ne sera pas un phénomène radicalement différent de ce qu'il se passe dans les modèles actuels
>
> Je suis un gueux en la matière mais je sais que les modèles actuels consistent à faire joujou avec des matrices. ça n'a absolument aucun rapport avec le fait d'avoir une conscience, et ça en a encore moins avec l'intelligence.
C'est l'un de ses prémices, on pourrait comparer le stade actuel de l'IA avec un embryon
ça n'est pas encore conscient mais il est probable qu'il en émerge quelque chose de conscient
![]()
Toujours en admettant que la conscience soit un phénomène matériel, non, parce que le cerveau ne fonctionne pas avec des matrices représentant des bits. Si tu voulais t'amuser à créer une conscience artificielle tu devrais surtout singer de A à Z les mécanismes de la conscience... que l'on ne connaît pas du coup.
L'embryon dont je parle n'a pas encore de cerveau et n'est composé que de quelques cellules. Il a 48 heures
pour moi l'IA en est là (de manière imagée bien sûr)
![]()
J'ai compris ce que tu veux dire mais pour que ce soit le cas il faudrait qu'on ait les débuts des principes nécessaires à la conscience de l'IA, ce qui n'est pas le cas.
Certes, on est sûrement beaucoup plus en arrière dans la chaîne de l'évolution, on pourrait voir l'IA actuelle comme les premiers organismes unicellulaires apparus sur terre à l'échelle de l'IA
Bah non toujours pas. D'un point de vue matériel tu sais même pas comment la vie est apparue.
Le 15 avril 2024 à 18:03:43 :
Le 15 avril 2024 à 17:47:35 :
Le 15 avril 2024 à 17:45:00 :
Le 15 avril 2024 à 17:29:02 :
Le 15 avril 2024 à 17:19:53 :
> Le 15 avril 2024 à 17:13:43 :
>> Le 15 avril 2024 à 17:11:17 :
> >Évidemment que non. Une IA peut même pas ne serait ce qu’avoir la capacité à avoir une intuition. L’IA peut meme pas se retrouver dans un état contemplatif ou imaginaire. Mais ça va parler de conscience de l’IA
>
> Un chat peut avoir une intuition (donc anticiper quelque chose) mais un chat n'est, jusqu'à preuve du contraire, pas capable de contempler ou d'imaginer. Un chat n'est pas conscient selon toi?
![]()
Anticipation qui va découler d’un certain instinct. L’instinct chez les animaux n’est pas de l’ordre de l’irrationnel.
Un animal est doué de sensibilité mais est ce qu’il a pour autant une conscience ? Je sais pas.
Dans tout les cas, je ne vois pas en quoi la comparaison est pertinente avec l’IA vue que celle-ci est guidé par la rationalité et l’efficacité alors que l’animal est guidé par son instinct.
La capacité d'anticipation ou l'instinct est aussi due à la capacité à stocker de l'information et à l'analyser.
Pour ce qui est de la rationalité : il n'existe qu'une forme de conscience? Donc le fait que l'être humain soit aussi un être rationnel l'empêche d'être conscient? Ou alors il peut y avoir des êtres conscients purement irrationnels (le monde animal et végétal) des êtres conscients à la fois rationnels et irrationnels (selon le contexte) mais pas d'êtres conscients purement rationnels?
![]()
Il peut pas y avoir d’intuition avec un calcul. L’intuition est irrationnel par essence. Avoir une intuition ne découle pas d’un processus transparent avec des calculs.
L’anticipation peut venir soit de l’intuition soit du rationnel. Anticipation n’est pas = à intuition.
L’homme a aussi une part de mystère en lui bien qu’il soit rationnel. Ta question c’est de savoir si un être juste rationnel peut être conscient ? Je sais pas, j’en connais pas. Mais la question qu’il faut se poser est de savoir si une IA est un être ? La question est négative.
Est ce qu’un non être peut avoir une conscience ? Est ce qu’une chose purement artificiel, qui n’a aucune vitalité et aucune essence peut avoir une conscience ?
Bien sûr que si, l'intuition peut très bien être le fruit de calcul "en arrière tâche" produits dans le subconscient
![]()
Pourquoi quelque chose de purement artificiel ne pourrait pas être conscient? Si demain on clone un être humain ou qu'on en produit un en laboratoire à partir de gamètes synthétiques, il ne sera pas conscient? Parce que c'est ce à quoi revient ton argument
![]()
Tu peux pas mettre au même niveau le calcul « en arrière tache » authentique et transcendant propre a la nature humaine avec celui de l’IA qui encore une fois n’est guidé que par la loi de la rationalité et de l’efficacité. Et je répète que l’homme n’est pas aussi transparent que l’IA, il obéit à d’autre lois que la rationalité.
Bonne question.
Je ne suis pas d'accord , dire qu'une ia n'obéit qu'aux lois de la rationalité n'est pas tout a fait vrai (ou du moins c'est discutable).
Certes les mécanismes qui la compose sont des mécanismes déterministes (comme pour l'homme par ailleurs) , mais l'ia en elle même ne l'est peut-être pas.
Je m'explique :
-Si l'on considère que la conscience humaine n'est pas la somme des mécanismes déterministes qui la compose => qu'il faut au moins envisager le fait que se soit pareil pour l'ia.
-Si l'on considère que la conscience humaine est la somme des mécanismes qui la compose => que l'inconscient n'est qu'une "arrière tache" purement calculatoire.
Données du topic
- Auteur
- BornTobeneet
- Date de création
- 15 avril 2024 à 16:51:46
- Nb. messages archivés
- 247
- Nb. messages JVC
- 246