AWS propose une nouvelle perspective : l'intelligence artificielle clé réside dans le temps plutôt que dans la taille du modèle

robot
Création du résumé en cours

Nouvelles ME, le 1er avril (UTC+8). Récemment, Amazon Science a publié un point de vue, estimant que, à mesure que la taille des modèles d’IA augmente, leurs capacités d’analyse pourraient au contraire diminuer. AWS a découvert une formule susceptible de changer la donne et indique que la clé de l’intelligence réside dans le temps, plutôt que dans l’ampleur des paramètres du modèle. Cela suggère que le développement de l’intelligence artificielle devrait davantage privilégier l’efficacité d’apprentissage, l’entraînement continu et la capacité d’adaptation, plutôt que le simple élargissement des modèles. Le champ de recherche d’Amazon Science est vaste et inclut le raisonnement automatisé, l’informatique en nuage et les systèmes, la vision par ordinateur, l’IA conversationnelle et le traitement du langage naturel, l’apprentissage automatique, les technologies quantiques, la robotique, etc. L’objectif est de construire, grâce à l’exploration interdisciplinaire, des systèmes d’IA plus efficaces, fiables et évolutifs. (Source : InFoQ)

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler