Les services d'Inference provider, Managed Inference Service ou AI providers fournissent des APIs ou/et directement des agent conversationnel web permettant d'intéragir avec des LLMs produit par des LLM Providers (Exemple : OpenAI, Anthropic, Mistral AI…)
Généralement, les LLM Providers sont eux mêmes des Inference providers.
Exemple d'invérence providers pure :
Une liste plus exhaustive est disponible sur https://models.dev ou https://openrouter.ai/providers.
OpenRouter est un "proxy" au dessus de plein de services d'inference providers.