technologie -
Un des rares articles censés sur l'IA. Enfin, surtout les LLM, hein.
Les modèles génériques gigantesques des GAFAMs, qui nécessitent toujours plus de puissance de calcul, sont une impasse.
Des modèles beaucoup plus petits, plus modestes, mais *ciblés* pourront être efficace. Non seulement ils seront meilleurs dans leurs résultats (car entraînés sur des données bien ciblées au lieu d'avoir bouffé tout internet), mais ils seront également beaucoup moins demandeurs en CPU/GPU/RAM et en électricité pour les faires tourner.
(Pour avoir un ordre de grandeur, Futo Keyboard fournit un modèle de reconnaissance vocale (transcription audio vers texte) qui reconnaît plusieurs langues et ne pèse que 79 Méga-octets et peut tourner sur un smartphone.)