Le but de cet exercice est d’écrire et d’exécuter le code suivant (ou équivalent), lequel fait appel à un GML (LLM).
from langchain_core.messages import HumanMessage, SystemMessage
messages = [
SystemMessage(content="Translate the following from English into French"),
HumanMessage(content="I love programming."),
]
model.invoke(messages)
Phi3
ou mixtral:8x7b
. Celui-ci nécessitera bien moins de ressources, tout en étant téléchargé bien plus rapidement ;Le but de l’exercice est d’utiliser un GML pour décrire l’image suivante : https://upload.wikimedia.org/wikipedia/commons/thumb/d/dd/Gfp-wisconsin-madison-the-nature-boardwalk.jpg/2560px-Gfp-wisconsin-madison-the-nature-boardwalk.jpg
Le but de l’exercice est de pouvoir interroger les informations fournies par le blog LLM Powered Autonomous Agents, en particulier afin de pouvoir répondre à la question suivante : “What is Task Decomposition?”.
Si vous êtes bloqués, voici un notebook fonctionnel basé sur Ollama : 07_gen_ai.ipynb
La phase d’encodage du texte de référence peut prendre plusieurs minutes.
Compléter la mise à niveau Smart-Meter
Calendrier
llama3.2:3b
d’Ollama.