OpenAI: La fin de Google et de l'enseignement traditionnel ?

elliot

Elite
J'avais vu un reportage intéressant sur une équipe de Français qui essayait une autre méthode d'apprentissage, plus proche de celle de l'humain. L'idée était la suivante : des robots devaient mettre une balle dans un trou de golf. Il y avait une équipe de robots qui s'exerçait via les modèles classiques, où on leur indiquait par deep learning le nombre de possibilités. Ces robots parvenaient rapidement à mettre la balle dans le trou. Cependant, il existait une autre technique, plus lente, que l'équipe jugeait potentiellement plus performante car elle s'inspirait de la manière dont les bébés apprennent. Il s'agissait de l'apprentissage par l'erreur : on ne donnait pas beaucoup d'instructions au robot, mais on le laissait enregistrer toutes les informations spatiales et observer le comportement de la balle, afin qu'il apprenne par lui-même en prenant en compte de nombreuses variables, à l'instar d'un enfant apprenant à marcher ou développant sa psychomotricité.

J'avais vu cela il y a longtemps, mais cette réflexion me semblait plus judicieuse, car elle se rapprochait de l'apprentissage humain. Au final, ce que nous essayons de faire, c'est de créer une intelligence qui ressemble le plus possible à la nôtre, mais avec une capacité de calcul supérieure.
 
@L@rgo_XIII
J'irais plus loin dans la réflexion ici car comme dit Elliot tu te bases sur les assistants actuels. Je t'invite à regarder le reportage sur alphaGo. L'IA en mode machine learning a battu le champion du monde de Go. Et "pire" elle a inventé un mouvement. Regarde le désespoir du champion à la fin c'est dur à voir. Et pire encore alphaGo zéro qui est en mode deep learning, au début se faisait défoncer par alphaGo qui avait battu le champion puis p'tit à p'tit en jouant contre elle même pr s'améliorer est devenue de plus en plus forte et au bout de 30j elle défonçait alphaGo.
C'est encore un exemple bien différent.

Là tu parles d'un jeu avec des règles claires et précises, définies depuis le début. C'est un cadre de fonctionnement très simple et idéal pour une IA.

De plus il faut distinguer 2 types d'entrainement. Celle basée sur
- les règles de base du jeu et l'IA "découvre" elle même les combinaisons gagnante (AlphaZero)
- un entrainement sur un ensemble de parties "types" jouées par de vrais joueurs (AlphaGo)

Le "move" original qui a été proposé par une IA correspond au 1er cas (AlphaZero).

A nouveau, ce n'est PAS le cas des IA génératives qu'on utilise pour le moment, les générateurs de texte (GPT) et images (StableDiffusion) sont clairement entrainé sur des bases de données existantes, et n'ont donc pas de réelle créativité (bien que ça soit discutable).



 
J'avais vu un reportage intéressant sur une équipe de Français qui essayait une autre méthode d'apprentissage, plus proche de celle de l'humain. L'idée était la suivante : des robots devaient mettre une balle dans un trou de golf. Il y avait une équipe de robots qui s'exerçait via les modèles classiques, où on leur indiquait par deep learning le nombre de possibilités. Ces robots parvenaient rapidement à mettre la balle dans le trou. Cependant, il existait une autre technique, plus lente, que l'équipe jugeait potentiellement plus performante car elle s'inspirait de la manière dont les bébés apprennent. Il s'agissait de l'apprentissage par l'erreur : on ne donnait pas beaucoup d'instructions au robot, mais on le laissait enregistrer toutes les informations spatiales et observer le comportement de la balle, afin qu'il apprenne par lui-même en prenant en compte de nombreuses variables, à l'instar d'un enfant apprenant à marcher ou développant sa psychomotricité.

J'avais vu cela il y a longtemps, mais cette réflexion me semblait plus judicieuse, car elle se rapprochait de l'apprentissage humain. Au final, ce que nous essayons de faire, c'est de créer une intelligence qui ressemble le plus possible à la nôtre, mais avec une capacité de calcul supérieure.
C'est exactement ce dont je veux parler pour le Go.
Screenshot 2023-09-29 at 09.08.25.png



Et jusqu'à preuve du contraire on a pas encore appris la grammaire ni l'orthographe à chat GPT. Et encore moins on ne lui a pas appris en le laissant générer n'importe quoi et en contrôlant si l'interlocuteur humain a "comrpis".

Les "règles" de base de la communication humaine sont quand même plus compliquées à modéliser que

1) Les règles d'un jeu de société
2) Les règles de la physiques de base pour qu'une balle arrive dans un trou.
 
  • J'aime
Les réactions: elliot

horrorman

Where is your god now ?
Science étonnante à ce que je vois :D
 

elliot

Elite
c'est le meilleur mais bordel faut parfois un PHD pour comprendre.
 

JetseX02

☁ INFUSE ☁

ca n'a pas fonctionné en commande chez moi mais simplement en mettant microsoft-edge://?ux=copilot&tcp=1&source=taskbar dans l'url de chrome ca fonctionne.
 

THiBOo

Elite
C'est encore un exemple bien différent.

Là tu parles d'un jeu avec des règles claires et précises, définies depuis le début. C'est un cadre de fonctionnement très simple et idéal pour une IA.

De plus il faut distinguer 2 types d'entrainement. Celle basée sur
- les règles de base du jeu et l'IA "découvre" elle même les combinaisons gagnante (AlphaZero)
- un entrainement sur un ensemble de parties "types" jouées par de vrais joueurs (AlphaGo)

Le "move" original qui a été proposé par une IA correspond au 1er cas (AlphaZero).

A nouveau, ce n'est PAS le cas des IA génératives qu'on utilise pour le moment, les générateurs de texte (GPT) et images (StableDiffusion) sont clairement entrainé sur des bases de données existantes, et n'ont donc pas de réelle créativité (bien que ça soit discutable).



Je suis ok avec tout mais le move original c'était alphaGo contre Lee Sedon pas la version zéro.

Et une fois qu'on aura des IA d'auto apprentissage pr des IA conversationnelles on sera une belle étape en avant
 

fastyy

Elite
5) Ca va affaiblir l'humain

De la même façon que certaines études ont prouvé que l'utilisation de Google a affecté nos capacités de mémorisation, je pense que ça risque de nous faire perdre certaines capacité de synthétisation etc..
Totalement vrai... depuis que j'ai le net, je ne me casse mm plus la tete à étudier et retenir des choses car je sais qu'à tout moment, il me suffit d'aller sur google pour avoir la commande et la réponse dont j'avais besoin.

Et je vois bien que cela a un impact sur ma mémoire qui n'est plus entrainée.
 
Je suis ok avec tout mais le move original c'était alphaGo contre Lee Sedon pas la version zéro.

Et une fois qu'on aura des IA d'auto apprentissage pr des IA conversationnelles on sera une belle étape en avant
Oui mais comment tu gères "l'auto-apprentissage" ?

Avec un jeu de société c'est simple, tu as des règles claires de victoires qui te permette de déterminer si ce qui a été généré est bon ou pas.

Pour les IA conversationnelle, comment tu gères le contrôle ?
=> Uniquement par un retour HUMAIN. C'est pour ça que tu dois mettre un pouce en bas/haut sur les réponses de chat GPT. Mais il n'y a pas d'ensemble de règles de base qui puissent permettre l'apprentissage de la langue en partant de rien.

Je n'arrive pas à retrouver un reportage sur la développement de la communication et du language chez les bébés (je pense que c'est ça mais sans certitude : https://boutique.arte.tv/detail/monde_selon_bebe) et ça expliquait bien la complexité d'apprendre le language depuis 0. Ca se fait via des dizaines de facteurs humains complexe. Et même si ça commence par un apprentissage statistique, après ça se complexifie ...
 

SlowBidou

Elite
C'est vrai. Bon heureusement le gars a quitté la société depuis. Mais comme le nouveau n'a pas encore travaillé avec nous cette année il a repris les commentaires de l'ancien.
Bien la preuve que vu qu'une IA pouvait faire ses review, il n'était pas indispensable dans son poste :p:D
 

THiBOo

Elite
Oui mais comment tu gères "l'auto-apprentissage" ?

Avec un jeu de société c'est simple, tu as des règles claires de victoires qui te permette de déterminer si ce qui a été généré est bon ou pas.

Pour les IA conversationnelle, comment tu gères le contrôle ?
=> Uniquement par un retour HUMAIN. C'est pour ça que tu dois mettre un pouce en bas/haut sur les réponses de chat GPT. Mais il n'y a pas d'ensemble de règles de base qui puissent permettre l'apprentissage de la langue en partant de rien.

Je n'arrive pas à retrouver un reportage sur la développement de la communication et du language chez les bébés (je pense que c'est ça mais sans certitude : https://boutique.arte.tv/detail/monde_selon_bebe) et ça expliquait bien la complexité d'apprendre le language depuis 0. Ca se fait via des dizaines de facteurs humains complexe. Et même si ça commence par un apprentissage statistique, après ça se complexifie ...
Tu pourrais envisager qu'une IA de type "classique" (par imitation) enseigne à une IA de type "auto-apprentissage".

Je pense vraiment qu'en terme d'IA, il faut avoir une pensée "non limitante". Westworld saison 1, je n'ai RIEN vu d'incohérant/incongru au niveau "plausibilité" des robots. Pr moi, on peut clairement aller en ce sens. Asimov avait déjà exploré très longuement les questions éthiques. Pr moi, il n'y a aucune limite à l'IA. Et j'ai un peu le sentiment que ceux qui essaient d'en mettre ou de les minimiser le font par peur.
Mais je peux me tromper évidemment.
 
Tu pourrais envisager qu'une IA de type "classique" (par imitation) enseigne à une IA de type "auto-apprentissage".

Je pense vraiment qu'en terme d'IA, il faut avoir une pensée "non limitante". Westworld saison 1, je n'ai RIEN vu d'incohérant/incongru au niveau "plausibilité" des robots. Pr moi, on peut clairement aller en ce sens. Asimov avait déjà exploré très longuement les questions éthiques. Pr moi, il n'y a aucune limite à l'IA. Et j'ai un peu le sentiment que ceux qui essaient d'en mettre ou de les minimiser le font par peur.
Mais je peux me tromper évidemment.
Ah mais ça je suis d'accord, il n'y a probablement pas de limite mais c'est pas pour ça que ce sera rapide.

Entre AlphaGo et ChatGPT, c'est 7 ans !

Et là on est sur des limitations en terme de coût et de consommation énergétiques qui sont importantes.
 

Gee

Elite
Imo, tous ces jobs ne disparaitront pas, on ne manquera jamais d'idiots (et j'aime bien la musique commerciale donc comptez moi dans les idiots), par contre nos filtres anti-spam vont devoir s'adapter car ces gens vont sophistiquer leur blabla pour se distinguer.

L'ironie c'est qu'ils utiliseront chatGPT pour se dinstinguer de chatGPT.
La musique "commerciale" et à très grand succès est incroyablement difficile à réaliser =)
 

Papl00

[Sebulbette]
Staff
Quand on essaye de parler à Siri on se rend compte qu’ils ont un sacré retard … si un équivalent à ChatGPT pouvait répondre ça serait vraiment utile…
 
Haut