Arcee AI lance le modèle open source Trinity-Large-Thinking pour les agents autonomes et les tâches à long terme

iconKuCoinFlash
Partager
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconRésumé

expand icon
Arcee AI a publié le modèle open-source Trinity-Large-Thinking le 7 avril pour les agents autonomes et les tâches à long terme. Le modèle est disponible via l'API Arcee, avec les poids ouverts sous Apache 2.0 sur Hugging Face. Les développeurs et les entreprises peuvent inspecter, effectuer un post-entraînement, héberger et distiller le modèle. Cette mise à jour actualité IA + crypto met en avant un nouvel outil pour les applications de nouvelles sur chaîne et les flux de travail pilotés par des agents.

Selon les nouvelles de ME, le 7 avril (UTC+8), Arcee AI a officiellement lancé le nouveau modèle open source Trinity-Large-Thinking. Ce modèle a été spécialement conçu pour répondre aux exigences strictes des flux de travail d'agents autonomes et des tâches à long terme. Le modèle est désormais disponible sur l'API Arcee, et ses poids sont également ouverts sur Hugging Face sous licence Apache 2.0. Selon les informations de publication, ce modèle s'adresse principalement aux développeurs et entreprises souhaitant disposer de modèles vérifiables, post-entraînés, hébergés, distillés et propriétaires. (Source : InFoQ)

Clause de non-responsabilité : les informations sur cette page peuvent avoir été obtenues auprès de tiers et ne reflètent pas nécessairement les points de vue ou opinions de KuCoin. Ce contenu est fourni à titre informatif uniquement, sans aucune représentation ou garantie d’aucune sorte, et ne doit pas être interprété comme un conseil en investissement. KuCoin ne sera pas responsable des erreurs ou omissions, ni des résultats résultant de l’utilisation de ces informations. Les investissements dans les actifs numériques peuvent être risqués. Veuillez évaluer soigneusement les risques d’un produit et votre tolérance au risque en fonction de votre propre situation financière. Pour plus d’informations, veuillez consulter nos conditions d’utilisation et divulgation des risques.