OpenAI: La fin de Google et de l'enseignement traditionnel

@lex

Elite
Je cherche une version pour laquelle il ne faut pas donner son numéro de téléphone.
 
  • J'aime
Les réactions: mderie

Suntheran

Fléau des Hordes Mongoles
Autre discussion intéressante

"I work at Alphabet and I recently went to an internal tech talk about deploying large language models like this at Google. As a disclaimer I'll first note that this is not my area of expertise, I just attended the tech talk because it sounded interesting.
Large language models like GPT are one of the biggest areas of active ML research at Google, and there's a ton of pretty obvious applications for how they can be used to answer queries, index information, etc. There is a huge budget at Google related to staffing people to work on these kinds of models and do the actual training, which is very expensive because it takes a ton of compute capacity to train these super huge language models.

However what I gathered from the talk is the economics of actually using these kinds of language models in the biggest Google products (e.g. search, gmail) isn't quite there yet. It's one thing to put up a demo that interested nerds can play with, but it's quite another thing to try to integrate it deeply in a system that serves billions of requests a day when you take into account serving costs, added latency, and the fact that the average revenue on something like a Google search is close to infinitesimal already.

I think I remember the presenter saying something like they'd want to reduce the costs by at least 10x before it would be feasible to integrate models like this in products like search. A 10x or even 100x improvement is obviously an attainable target in the next few years, so I think technology like this is coming in the next few years."

 

NeoGeek

Elite
Autre discussion intéressante

"I work at Alphabet and I recently went to an internal tech talk about deploying large language models like this at Google. As a disclaimer I'll first note that this is not my area of expertise, I just attended the tech talk because it sounded interesting.
Large language models like GPT are one of the biggest areas of active ML research at Google, and there's a ton of pretty obvious applications for how they can be used to answer queries, index information, etc. There is a huge budget at Google related to staffing people to work on these kinds of models and do the actual training, which is very expensive because it takes a ton of compute capacity to train these super huge language models.

However what I gathered from the talk is the economics of actually using these kinds of language models in the biggest Google products (e.g. search, gmail) isn't quite there yet. It's one thing to put up a demo that interested nerds can play with, but it's quite another thing to try to integrate it deeply in a system that serves billions of requests a day when you take into account serving costs, added latency, and the fact that the average revenue on something like a Google search is close to infinitesimal already.

I think I remember the presenter saying something like they'd want to reduce the costs by at least 10x before it would be feasible to integrate models like this in products like search. A 10x or even 100x improvement is obviously an attainable target in the next few years, so I think technology like this is coming in the next few years."

Ça rejoins ce que je disais que le fait que le challenge ça va sur le fait d'industrialiser le truc dans le sens de faire des performances similaires avec nettement de ressources (ce qui veut dire des modèles + petit)
Plus qu'à postuler chez Google IA du coup ! :cool:
 

freedumz

Chasseur de castors
En même temps, j'ai vachement l'impression que le code générée par l'IA, c'est le code que tu copies/colles d'un projet à l'autre
 

pacharout

le silence est d'or
Sur le même sujet, quelqu'un a déjà essayé GitHub Copilot?

Je l'utilise tous les jours depuis plus d'un an (je faisais partie des betas testeurs), j'ai réduis mon temps de travail (en indépendant) de 50% au moins...
Pour du back, du front, peu importe le framework, c'est pas loin de la perfection... C'est effrayant... Moi ça m'arrange, je suis architects et j'avais besoin de freelance pour certain dev plus complexe, principalement pour le front. Maintenant, je peux tout faire seul sans aucun problème.
Là où c'est encore le plus efficace pour moi, c'est pour le testing. Ayant toujours eu l'habitude de faire TDD, c'est le paradis.
 
Dernière édition:

Totoleheros83

Petit chat
Je l'utilise tous les jours depuis plus d'un an (je faisais partie des betas testeurs), j'ai réduis mon temps de travail (en indépendant) de 50% au moins...
Pour du back, du front, peu importe le framework, c'est pas loin de la perfection... C'est effrayant... Moi ça m'arrange, je suis architects et j'avais besoin de freelance pour certain dev plus complexe, principalement pour le front. Maintenant, je peux tout faire seul sans aucun problème.
Là où c'est encore le plus efficace pour moi, c'est pour le testing. Ayant toujours eu l'habitude de faire TDD, c'est le paradis.
C'est gratuit ?
 

gregsting

Chat!
Clairement si l'IA sait remplacer 100% de ton activité de développement , c'est que ça nécessitait pas masse de réflexion à la base.
A terme ca veut dire qu'une bonne analyse fonctionnelle pourrait générer le code. Il y a beaucoup de "bêtes" programmes dans le monde hein...
 

NeoGeek

Elite
A terme ca veut dire qu'une bonne analyse fonctionnelle pourrait générer le code. Il y a beaucoup de "bêtes" programmes dans le monde hein...
C'est dans la continuité de mon propos également ! :D
 

EINST

⭐⭐⭐⭐⭐
Tiens... impossible de m'inscrire car il me dit qu'il a un soucis avec mon numéro de téléphone pour la vérification.

Avez-vous eu le même soucis?
Oui
 

EINST

⭐⭐⭐⭐⭐
 

Zloup

Badger
C'est génial, mais malheureusement pas applicable à tout les types de jobs.
 

Benji

It's caturday!
Non effectivement, dans le handicap c'est tendu :D
(Sauf peut-être pour rédiger mes synthèses ? :love:)
 
Haut