Galileo AI Evaluations
Analytics IAGalileo AI Evaluations est un outil analytics ia conçu pour aider les équipes professionnelles à accélérer leurs workflows IA avec un cadre exploitable, mesurable et orie
Recherche hybride par mot-clé et sémantique pour découvrir les meilleurs outils IA.
Galileo AI Evaluations est un outil analytics ia conçu pour aider les équipes professionnelles à accélérer leurs workflows IA avec un cadre exploitable, mesurable et orie
Autoblocks aide les équipes à évaluer, tester et améliorer les applications LLM avec des workflows d’évaluation adaptés aux critères métier, avec un positionnement clair
Plateforme d’évaluation, observabilité et expérimentation pour tester les applications LLM avant et après la production.
TruLens aide les équipes à instrumenter, tracer et évaluer les applications RAG, agents IA et workflows LLM avec des métriques fiables, avec une approche claire, structur
Framework open source pour évaluer les applications LLM, RAG et agents avec métriques, datasets et boucles d’amélioration.
Cognii est un outil education ia conçu pour évaluation automatique et tutorat conversationnel pour éducation dans des workflows professionnels.
TruEra est un outil observabilité ia conçu pour évaluation et monitoring de modèles ML et LLM dans des workflows professionnels.
Agenta est un outil développement ia pour équipes professionnelles, avec des workflows IA orientés LLM evaluation.
Toloka aide les équipes à collecter, annoter et valider des données humaines pour entraînement et évaluation IA, avec une approche claire, professionnelle et orientée val
Encord aide les équipes à gérer annotation, données visuelles et évaluation de modèles pour computer vision, avec une approche claire, professionnelle et orientée valeur
Cleanlab aide les équipes à détecter et corriger les erreurs dans les datasets, labels et données utilisées pour l’entraînement ou l’évaluation IA, avec un positionnement
Lunary aide les équipes à centraliser logs, prompts, évaluations et monitoring pour applications LLM en développement comme en production, avec une approche claire, struc
Literal AI aide les équipes à tracer, analyser et améliorer les applications conversationnelles IA avec données, évaluations et retours utilisateurs, avec une approche cl
Plateforme LLMOps pour gérer prompts, évaluations, datasets et observabilité des applications IA en équipe.
Plateforme open-source d’observabilité, d’analytique et d’évaluation pour applications et agents basés sur des LLM.
Plateforme open-source de tests, d’évaluation et de sécurisation des modèles IA et applications LLM.
Plateforme de monitoring, d’évaluation et d’amélioration continue de la qualité des applications basées sur des LLM.
Confident AI est un outil llmops conçu pour tester et évaluer des applications LLM avec DeepEval dans des workflows professionnels.
MathGPTPro est un outil education ia pour équipes professionnelles, avec des workflows IA orientés math tutoring.
Querium est un outil education ia pour équipes professionnelles, avec des workflows IA orientés AI tutoring.
Workera est un outil education ia pour équipes professionnelles, avec des workflows IA orientés skills intelligence.
Mercor est une solution rh ia pour automatiser, analyser ou accélérer des workflows professionnels avec l'IA.
Maxim AI est un outil infrastructure ia pour accélérer les workflows professionnels avec une assistance IA structurée.
Modelmetry est un outil infrastructure ia pour accélérer les workflows professionnels avec une assistance IA structurée.