OpenAI: La fin de Google et de l'enseignement traditionnel ?

pacharout

le silence est d'or
une super vidéo sur l'arrive du modèle gpt 4
 
  • J'aime
Les réactions: ReGGiO

Calvin80

Respect is key
Sans problème.

perso je reste très sceptique. C'est un excellent outil "pour faciliter les recherches sur google", mais pour moi il reste encore necessaire d'avoir un cerveau et un esprit critique derrière pour corriger les erreurs ou approximations..
la règle est asez simple à l'heure actuelle: n'utilise la generative AI que si tu peux juger de la qualité / relevance / justesse du résultat.

Ca reste un (tres tres tres tres bon) assistant, pour le moment.
 

BoBs

1337
Je vous conseille le dernier épisode de South Park sur ChatGPT (S26E04) :D
 
1er
OP
Anewone

Anewone

Elite
Perso j'trouve que c'est une mauvaise base de comparaison si le but est vraiment de comparer l'ia aux humain...
L'intelligence (dans sa généralité) c'est acquérir de nouveaux skills selon les situations, et chatGPT n'en est pas capable. L'intellect ne se mesure pas avec un examen. Les tests de QI ne testent que ta capacité à passer ces mêmes tests.
 
  • J'aime
Les réactions: THiBOo

Totoleheros83

Petit chat
L'intelligence (dans sa généralité) c'est acquérir de nouveaux skills selon les situations, et chatGPT n'en est pas capable. L'intellect ne se mesure pas avec un examen. Les tests de QI ne testent que ta capacité à passer ces mêmes tests.
Des professeurs disent reconnaître les devoirs faits par ChatGPT très facilement : voilà comment (clubic.com)

Un étudiant en philosophie à propos de ChatGPT:
"De tels devoirs (devoirs de philosophie de niveau universitaire) demandent en effet plus qu'une simple restitution de connaissances largement disponibles sur Internet".

En gros, ChatGPT n'est pas (encore) capable d'argumenter de façon cohérente.
Pas d'esprit critique par rapport à la réponse qu'il donne
 
Dernière édition:
M

Membre supprimé 2774

ex membre
Ouais ils utilisent une ia qui check voir si un texte est généré par ia.
 
1er
OP
Anewone

Anewone

Elite
Je vais partager ce que j'ai déjà moi même implémenter pour mon taff depuis quelques semaines, et les dernières MAJ que je trouve intéressantes et que je vais/ai déjà exploité(r).


1 - On peut faire tourner son propre "Large Language Model (LLM)" (ce qu'est ChatGPT) sur sa machine (ou smartphone ou même.. un Raspberry Pi !) via LLaMA 7B (7B pour 7 milliards de paramètres). Pour rappel, LLaMA (7B, 13B, 65B) est le compétiteur de OpenAI open-source (et "piraté" mis à disposition sur des torrents) de Facebook. Le seul problème, c'est que si on s'attend à avoir des réponses à la ChatGPT, même avec le + petit modèle LLaMA de 7B de paramètres, on sera déçu. Arrive donc Alpaca développé par des gens de Stanford, qui ont adapté ("fine tuned" en Anglish) LLaMA pour donner des réponses similaires à chatGPT, et ce même avec le + petit modèle de 7B de paramètres ! Un seul lien à retenir: https://github.com/antimatter15/alpaca.cpp

2 - Le prompt engineering (ou l'IA intégré dans une boucle "for" :)). Mais pour être plus précis, le "ReAct". Idée étudiée il y a déjà un moment, l'idée c'est de faire intéragir chatGPT (ou Alpaca :cool:) avec des outils (ou base de données, d'où l'idée de LLaMA ou Alpaca, on ne dévoile pas sa propre DB à OpenAI) externes tels que Wikipedia, ou une calculette, puis de "feed" le résultat de cette recherche dans chatGPT; ce processus va être ré-itéré jusqu'à ce qu'il soit satisfait de la réponse finale. ChatGPT va donc beaucoup moins halluciner qu'à l'habitude, même pour des questions de math/stats/logiques, pour autant qu'on lui donne accès aux bons outils. ;)
Donc ReAct = Reasoning and Acting, et on commence à comprendre rapidement que si on donne chatGPT accès à d'autres outils qu'une API Wikipedia et une calculette, on peut obtenir des résultats saisissants. Voilà une liste de prompt engineering https://github.com/promptslab/Awesome-Prompt-Engineering et un exemple en image de "ReAct" entrain d'itérer (Re = Thought; Act = Action).
1679133113876.png

(source: Simon Willison)

3 - Notre propre Bing. Je vais insister sur un des liens (dispo sur la liste de prompt engineering), que j'utilise, https://langchain.readthedocs.io/en/latest/index.html
"Bing" n'est rien d'autres que chatGPT relié à un moteur de recherche en utilisant un outil comme "langchain". Sauf que ça n'aurait aucun intérêt de développer en local ce que Bing sait déjà très bien faire.. mais comme vous vous en doutez, on va aller plus loin en intégrant nos propres outils.. :cool:

Je dévoile pas mon code source (heh) mais pour en apprendre plus sur ReAct ou la liaison entre chatGPT et nos propres outils: https://interconnected.org/home/2023/03/16/singularity
Pour comprendre à quel point le prompt engineering est "facile" d'accès sans même utiliser "langchain", il donne un lien github qui explique comment lier chatGPT à son propre browser https://github.com/nat/natbot/blob/main/natbot.py en 100 lignes de code.
 
Dernière édition:

Liandoran

Redeemer and Destroyer
J'ai peut être mal compris mais je ne vois pas en quoi tu expliques pourquoi c'est un plus pour ton taf . Et surtout pour moi qui vient d'un environnement où tout doit être contrôlé, validé, cadré, ça a l'air ultra freestyle de ton côté ;)
 
  • Haha
Les réactions: [Clad]
1er
OP
Anewone

Anewone

Elite
J'ai peut être mal compris mais je ne vois pas en quoi tu expliques pourquoi c'est un plus pour ton taf . Et surtout pour moi qui vient d'un environnement où tout doit être contrôlé, validé, cadré, ça a l'air ultra freestyle de ton côté ;)
Ca me paraît évident que mon expérience n'est pas généralisable, je cherchais surtout à montrer une manière plus efficace d'utiliser un LLM, certains y verront une opportunité, d'autres non.
 

cyriak

Turn on - Tune in - Drop out
L'intelligence (dans sa généralité) c'est acquérir de nouveaux skills selon les situations, et chatGPT n'en est pas capable. L'intellect ne se mesure pas avec un examen. Les tests de QI ne testent que ta capacité à passer ces mêmes tests.
D"où mon interrogation, j'suis déjà persuadé que ces test ne sont bon qu'a savoir si on est bon a passer ces test et rien d'autre, c'est quoi l'intérêt d'entrainer des IA a faire 100% à ces test pour les comparer a des être humain après....
 
1er
OP
Anewone

Anewone

Elite
D"où mon interrogation, j'suis déjà persuadé que ces test ne sont bon qu'a savoir si on est bon a passer ces test et rien d'autre, c'est quoi l'intérêt d'entrainer des IA a faire 100% à ces test pour les comparer a des être humain après....
Marketing je pense (no joke), mais ils utilisent d'autres tests plus adaptés pour évaluer leur modèle https://openai.com/research/gpt-4
 

fastyy

Elite
Je vais partager ce que j'ai déjà moi même implémenter pour mon taff depuis quelques semaines, et les dernières MAJ que je trouve intéressantes et que je vais/ai déjà exploité(r).

...
En tout cas, cela semble super intéressant... mais je n'ai RIEN compris :)
Est ce que l'on peut demander à tes outils de réitérer sur ton texte pour le traduire dans un français plus courant ? :):)
 
1er
OP
Anewone

Anewone

Elite
En tout cas, cela semble super intéressant... mais je n'ai RIEN compris :)
Est ce que l'on peut demander à tes outils de réitérer sur ton texte pour le traduire dans un français plus courant ? :):)
Ah ! L'idée c'est de forcer GPT (via leur API) à effectuer des calls API avant de te donner une réponse finale. Par exemple, si tu utilises chatGPT pour générer du code python, tu demandes ici la même chose sauf qu'il va être "forcé" de faire un appel à ton interpéteur Python pour vérifier si son code s'exécute correctement, si non, il réitère, mutatis mutandis.

Attention que si tu relies GPT (ou un autre LLM tels que LLaMA) à ton propre interpréteur, il peut décider de os.system("rm -rf/") sans que tu comprennes pourquoi :D Il existe des alternatives qui te permettent d'éviter ce genre de désagrément mais c'est toujours un work-in-progress.

J'imagine que tu peux extrapoler sur les autres applications que tu pourrais relier de la même manière, personnellement j'en ai 4 qui fonctionnent à l'unisson etça le fait halluciner beaucoup moins qu'avant.

Concernant LLaMA et Alpaca, c'est pour avoir ton propre "chatGPT" en local, et au lieu d'utiliser ton GPU pour le faire tourner, un génie (je ne vois pas d'autres termes) l'a implémenté sous c++ en une nuit donc ça tourne sur ton CPU, pour autant que tu aies au moins 8 Gb d'espace disque et 4 Gb de ram pour le + petit modèle (7B de paramètres). Si OpenAI est MacOS, LLaMA est Linux, faut que tu changes les paramètres du modèle par toi même etc etc, sinon il va dire de la merde, par exemple en laissant tout par défaut, le + petit modèle output:
1679316744996.png


L'avantage c'est que ce chatGPT local n'a pas de safeguards (donc aucun "biais" > par contre il peut lâcher des saloperies donc attention aux plus fragiles :D), qu'il a tourné sur des données libres de droit, et que toutes les données / requêtes que tu lui INPUT ne serviront pas à alimenter le modèle d'OpenAI..

N.B: Je suis POUR la régulation des AI, mais j'aime pas partager mes bases de données ou mes codes sources, même si c'est "anonymisé".
 
Dernière édition:
Haut