L'intelligence artificielle a connu des progrès fulgurants ces dernières années, mais son accessibilité reste limitée aux machines puissantes et aux experts en informatique. Cette présentation vise à démolir ce mur en démontrant comment faire tourner des LLM (modèles de langage de grande taille, mais en fait petits, mais costauds, dans le cas qui nous intéresse) sur un simple Raspberry PI 5 (et si ça tourne sur un Pi…).
En tirant parti de la puissance d'Ollama, une plateforme de LLMs, et de LangChain, un framework de programmation d'application GenAI (Generative AI), nous ouvrons la voie à une expérimentation accessible de l'IA.
Voici ce que vous découvrirez lors de cette présentation:
Que vous soyez débutant en IA ou expert confirmé, cette présentation vous offrira une nouvelle perspective sur l'expérimentation et le développement d'applications GenAI.
Je mettrais à disposition un projet qui permet d'installer toutes les dépendances automatiquement, ainsi qu'Ollama, les LLMs et un Web IDE pour pouvoir commencer à développer dès la fin de cette présentation.