OpenAI: La fin de Google et de l'enseignement traditionnel

EINST

⭐⭐⭐⭐⭐
Pas compris…
C'est long à expliquer...

Je lui avais donné une suite de nombre, je lui avais demandé de me donner la suite + formule pour trouver n° nombre mais à un moment il s'est planté.

Tu lui dis et il se corrige.


Je lui avais aussi demandé de démontrer que "le carré d'un nombre impair auquel on soustrait 1 est un multiple de 8"
 
C'est long à expliquer...

Je lui avais donné une suite de nombre, je lui avais demandé de me donner la suite + formule pour trouver n° nombre mais à un moment il s'est planté.

Tu lui dis et il se corrige.


Je lui avais aussi demandé de démontrer que "le carré d'un nombre impair auquel on soustrait 1 est un multiple de 8"
mais du coup peut on lui dire qu’il se trompe quand il a raison et donc si on est suffisamment nombreux lui faire faire des calculs erronés ?
 

[Clad]

Manipulateur de bits
mais du coup peut on lui dire qu’il se trompe quand il a raison et donc si on est suffisamment nombreux lui faire faire des calculs erronés ?
si vous saviez ce qu'on peut faire à des IA, ça fait peur niveau sécurité

mais c'est un topic chaud, donc ca avance (tant en attaque qu'en défense)

je regarde d'ailleurs ces points
 

EINST

⭐⭐⭐⭐⭐
mais du coup peut on lui dire qu’il se trompe quand il a raison et donc si on est suffisamment nombreux lui faire faire des calculs erronés ?
Pour le moment, il ne retient pas forcément tout d'une session à l'autre.

Mais ils pourront éventuellement le faire.

Edit : euh, j'ai pas essayé de corriger une réponse pour qu'il sorte un truc faux. Il refaisait un développement et justifiait la réponse.



Et oui, ça peut être un risque. Si tu l'utilises bêtement pour répondre à une question comme tu pourrais faire en consultant un moteur de recherche, il te donne un certain résultat. Dans un moteur de recherche, tu sais bien qu'il vaut mieux parfois regarder plus bas et tu vois directement la source. Mais on peut aussi influencer un moteur de recherche.

Là sa force, ça reste l'automatisation et il sait bien enrober une réponse.
Pour les math, il y avait déjà des moteurs plus puissants.
'fin c' est vraiment très intéressant et il faut sérieusement s'y intéresser (objet du thread).
 
Dernière édition:

@lex

Elite
mais du coup peut on lui dire qu’il se trompe quand il a raison et donc si on est suffisamment nombreux lui faire faire des calculs erronés ?
J'ai tout de suite pensé la même chose. Et je pense qu'il ne faut pas être nombreux, en fait plus le truc est complexe (pour lui), moins il faut être nombreux.

Il suffirait de tester, je cherche toujours un numéro jetable qu'il accepte pour m'enregistrer.

Ah ben ça c'est un test à faire: lui demander de m'enregistrer ;)
 
1er
OP
Anewone

Anewone

Elite
Combien ça coûte et quelle infrastructure pour faire tourner ChatGPT
 
C'est assez épatant et intéressant !
Clairement on ne peut pas passer à côté de ces progrès là.

Il faut évidemment l'utiliser en en connaissant les forces et faiblesses.

Au niveau Dev, il donne des réponses qui paraissent limpide et bien propre comme une doc officielle, mais ce n'est pas toujours correct.

Par rapport à StackOverFlow (SOF) on perd quand même toute l'info indirecte (les votes etc..) qui permet de voir rapidement si c'est une réponse valable ou exotique ...


Voici un exemple de question qui est un peu technique. Il y réponds bien.
Je lui ai demandé la même avec un upload vers S3 et là il m'a proposé d'utiliser une Action "uploadS3" qui est un truc "exotique"et pas officiel de AWS.

Alors qu'en fait je peux le faire avec une simple ligne de commande AWS CLI.

=> Ca peut permettre d'accélérer les recherche, mais il faut garder son esprit critique, son expérience et sa vista pour extraire ce dont on a vraiment besoin.

1670402964376.png


1670402977134.png
 

Suntheran

Fléau des Hordes Mongoles
Il faut évidemment l'utiliser en en connaissant les forces et faiblesses.
C'est tout con mais pour les FAQ d'entreprises (genre comment introduire une demande RH, ou une procédure IT spécifique) ça peut vraiment changer la donne.
Dans ma boîte actuelle la doc est disséminée entre 3-4 plateformes différentes, c'est vraiment le chaos.
 
C'est tout con mais pour les FAQ d'entreprises (genre comment introduire une demande RH, ou une procédure IT spécifique) ça peut vraiment changer la donne.
Dans ma boîte actuelle la doc est disséminée entre 3-4 plateformes différentes, c'est vraiment le chaos.
Sauf que si tes docs sont pas à jours et/ou mélangent plusieurs versions ....
L'IA elle va te sortir un truc "plausible" mais ce sera de la merde.

Il faut pas croire que tout ça est sans efforts et se fait facilement.
Il faut entraîner le modèle avec de BONNES données.

Ici ça parait facile car ils se basent sur un ENORME input de toute la "communauté" et donc statistiquement ça doit aider à balayer les erreurs.

Si le seul peye qui entraine le modèle de ta FAQ HR c'est Gérard "rien à battre", ben t'auras quand même un chatbox de merde :p
 
  • J'aime
Les réactions: ReGGiO

NeoGeek

Elite
C'est tout con mais pour les FAQ d'entreprises (genre comment introduire une demande RH, ou une procédure IT spécifique) ça peut vraiment changer la donne.
Dans ma boîte actuelle la doc est disséminée entre 3-4 plateformes différentes, c'est vraiment le chaos.
Clairement !
 

[Clad]

Manipulateur de bits
Ah oui, j'espère que lorsque vous utilisez des AI vous n'êtes pas trop sensible à la cause environnementale.


Un article plus simple à lire avec un titre résumant l'article :
"Training a single AI model can emit as much carbon as five cars in their lifetimes
Deep learning has a terrible carbon footprint."


Du coup, de plus en plus de conf sur l'AI demandent aux chercheurs d'indiquer/évaluer l'emprunte carbone de nos recherches.
 
  • J'aime
Les réactions: EINST

NeoGeek

Elite
Ah oui, j'espère que lorsque vous utilisez des AI vous n'êtes pas trop sensible à la cause environnementale.


Un article plus simple à lire avec un titre résumant l'article :
"Training a single AI model can emit as much carbon as five cars in their lifetimes
Deep learning has a terrible carbon footprint."


Du coup, de plus en plus de conf sur l'AI demandent aux chercheurs d'indiquer/évaluer l'emprunte carbone de nos recherches.
Ben si on se fie au gros titre , c'est super économe non ?

parce que l'équivalent de 5 voitures pour un truc qui va changer la vie de centaines de millions de gens ,c'est quedal.
 

cedb3

Elite
Ah oui, j'espère que lorsque vous utilisez des AI vous n'êtes pas trop sensible à la cause environnementale.
Ton article parle de training, pas d'utilisation.
 

[Clad]

Manipulateur de bits
Ben si on se fie au gros titre , c'est super économe non ?

parce que l'équivalent de 5 voitures pour un truc qui va changer la vie de centaines de millions de gens ,c'est quedal.
le nombre d'entreprise et de gens qui veulent foutre de l'AI PARTOUT faut payer le cout bien souvent
 

Suntheran

Fléau des Hordes Mongoles
Sauf que si tes docs sont pas à jours et/ou mélangent plusieurs versions ....
L'IA elle va te sortir un truc "plausible" mais ce sera de la merde.

Il faut pas croire que tout ça est sans efforts et se fait facilement.
Il faut entraîner le modèle avec de BONNES données.

Ici ça parait facile car ils se basent sur un ENORME input de toute la "communauté" et donc statistiquement ça doit aider à balayer les erreurs.

Si le seul peye qui entraine le modèle de ta FAQ HR c'est Gérard "rien à battre", ben t'auras quand même un chatbox de merde :p
Ah oui clairement, mais ça pourrait être au moins un pas dans la bonne direction.
 
Haut