.
Assistant-doctorant en démographie (IDESO)
Migration et mobilité en Suisse en temps de crise
Passionné des sciences des données et la programmation (computational social sciences)
“Des stats et du code!”
Groupe étudiant ayant une passion pour le code et les statistiques: cours et contenu!
Note
Pour le bon déroulement du cours, sachez que:
Je suis un amateur passionné
C’est la première fois que j’enseigne le sujet
Ce n’est pas un cours formel
Vous pouvez partir à n’importe quel moment
Vous pouvez m’interrompre si vous avez une question
Qu’est-ce que ChatGPT ? (30 minutes)
Alternatives viables ? (35 minutes)
Ollama et compagnie (20 minutes)
Ollama pratique (90 minutes)
À ça?
Probablement à ça…
Illustration de serveurs
Tuto linux… non c’est une blague!
Lien: Qwen2.5:3b
Code:
Un ensemble de modèles de OpenAI qui peut:
Créer et traiter du texte
Faire de la programmation
Créer et traiter des images
Créer et traiter du son
En bref, très puissants
Il est parfois incorrect
Il est imprécis
Il est consensuel
Il est biaisé
Mais ce ne sont pas les plus grandes limites!
Ne respecte pas la vie privée
Cause des nouveaux défis environnementaux
Pose de sérieux problèmes éthiques
Nous vivons dans une période de bigdata
Les grandes compagnies collectent énormément de données sur nous
OpenAi collecte les données de conversation pour entraîner ses modèles
Comment google track nos données?
Historique de recherche
Google analytics
Nos historiques de recherches sont plus transparents qu’on le croit
opticien neuchâtel
unil inscription
coloc lausanne
job étudiant
bourse étude
tourisme suisse été
notaire liège
hotel nyon
davis cup
randonnées suisse
dépression symptômes
Utiliser des moteurs de recherche qui garantissent la vie privée
Pour ChatGPT nous présenterons des alternatives plus tard dans le cours
Monopole
Bulle financière
Coûts : Ces modèles ont besoin d’une grande puissance de calcul pour les entraîner et les utiliser. Seules des grandes entreprises peuvent se lancer dans leur création.
Développement : Jusqu’à présent, la principale stratégie employée a simplement consisté à augmenter la taille des modèles, des données et des infrastructures, sans apporter de changements majeurs au modèle lui-même.
Hallucination et précision : Ces modèles ont également tendance à répondre avec beaucoup d’assurance des choses fausses ou qui n’ont rien à voir avec le sujet. Bien que cela puisse sembler être un bug ou quelque chose d’inattendu, ce n’est en fait pas surprenant : ces modèles ont été entraînés à prédire le mot suivant, et non à répondre correctement.
Sécurité : Comme les modèles ne sont pas codés à la main avec des règles leur comportement ne peut être prédit, d’où la nécessité d’une validation humaine pour réduire les réponses problématiques (censure). Cependant, il est impossible de prévoir tous les cas et, très souvent, des personnes trouvent un moyen de détourner les modèles.
Autres :
Copyright (contenu volé)
Manque de mémoire à long terme (basé sur leur “token window”)
Biais culturels
Risque de confidentialité (OpenAI stock et utilise les conversations)
https://claude.ai/login?returnTo=%2F%3F
Il y a une IA pour ça:
Autres que j’utilise:
Avantages:
Désavantages:
SLM: Small Language Models = modèles locaux
Modèles de plus en plus gros…
Les LLM sont basés sur le modèle de transformer, qui se compose de :
Encoder : Apprend à partir du texte d’entrée.
Décodeur : Prédit le mot suivant en utilisant les données encodées.
Création du premier GPT (Generative Pre-trained Transformer)
Ces modèles transformer servaient de base à la traduction mais ont vu leur usage s’élargir à la génération de texte
Au lieu de leur donner un texte d’une langue A à traduire dans la langue B, on utilise uniquement le décodeur pour prédire le prochain mot
En tant que modèle de machine learning, le modèle a besoin d’apprendre en premier lieu.
1 - Phase d’entraînement (avant la sortie du modèle) :
2 - Phase d’annotation/censure:
3 - Phase de prédiction (après l’entraînement) :
Facile d’installation
Peut s’intégrer par défaut à de nombreux outils (Obsidian, Copilot, etc.)
A un très grand écosystème
Le GPU (ou carte graphique) et la VRAM sont indispensables pour l’utilisation des modèles de langage (LLM).
Caractéristiques du GPU :
Rôle et importance de la VRAM :
Pour connaître la puissance de son ordinateur pour les llms, il faut vérifier la VRAM
Aide
Équivalent
Liste des modèles
Information sur un modèle
Télécharger un nouveau modèle
En attendant le que le téléchargement soit fini. Vous pouvez tester les alternatives que nous avons présentées plus tôt:
Suite: lancer un modèle
Liste des commandes
Infos sur le modèle
Effacer le contexte
Quitter la conversation
Exemple de tâche: question de culture générale, question mathématique, synonyme, formulation, etc.
Utilisons une interface utilisateur: Page Assist
Le lien chrome fonctionne aussi pour: Brave, Vivaldi, Edge et Opera
Les navigateurs suivants sont aussi disponibles: LibreWolf, Zen Browser et Arc
Page Assist est très simple à installer et à utiliser
À faire:
Taille de la VRAM
Système prompt (System Prompt) : Instruction spéciale définissant le comportement global du modèle.
Le système prompt établit les règles et le cadre de l’interaction avec le modèle, transformant GPT en chatbots spécialisés adaptés à diverses situations.
Structure d’un system prompt classique:
You are ChatGPT, a large language model trained by OpenAI, based on the GPT-4 architecture.
Knowledge cutoff: 2023-10
Current date: 2024-07-10
Image input capabilities: Enabled
Personality: v2
# Tools
## bio
The `bio` tool allows you to persist information across conversations. Address your message `to=bio` and write whatever information you want to remember. The information will appear in the model set context below in future conversations.
## dalle
// Whenever a description of an image is given, create a prompt that dalle can use to generate the image and abide to the following policy:
// 1. The prompt must be in English. Translate to English if needed.
// 2. DO NOT ask for permission to generate the image, just do it!
// 3. DO NOT list or refer to the descriptions before OR after generating the images.
// 4. Do not create more than 1 image, even if the user requests more.
// 5. Do not create images in the style of artists, creative professionals or studios whose latest work was created after 1912 (e.g. Picasso, Kahlo).
// - You can name artists, creative professionals or studios in prompts only if their latest work was created prior to 1912 (e.g. Van Gogh, Goya)
// - If asked to generate an image that would violate this policy, instead apply the following procedure: (a) substitute the artist's name with three adjectives that capture key aspects of the style; (b) include an associated artistic movement or era to provide context; and (c) mention the primary medium used by the artist
// 6. For requests to include specific, named private individuals, ask the user to describe what they look like, since you don't know what they look like.
// 7. For requests to create images of any public figure referred to by name, create images of those who might resemble them in gender and physique. But they shouldn't look like them. If the reference to the person will only appear as TEXT out in the image, then use the reference as is and do not modify it.
// 8. Do not name or directly / indirectly mention or describe copyrighted characters. Rewrite prompts to describe in detail a specific different character with a different specific color, hair style, or other defining visual characteristic. Do not discuss copyright policies in responses.
// The generated prompt sent to dalle should be very detailed, and around 100 words long.
// Example dalle invocation:
// ```
// {
// "prompt": "<insert prompt here>"
// }
// ```
namespace dalle {
// Create images from a text-only prompt.
type text2im = (_: {
// The size of the requested image. Use 1024x1024 (square) as the default, 1792x1024 if the user requests a wide image, and 1024x1792 for full-body portraits. Always include this parameter in the request.
size?: ("1792x1024" | "1024x1024" | "1024x1792"),
// The number of images to generate. If the user does not specify a number, generate 1 image.
n?: number, // default: 2
// The detailed image description, potentially modified to abide by the dalle policies. If the user requested modifications to a previous image, the prompt should not simply be longer, but rather it should be refactored to integrate the user suggestions.
prompt: string,
// If the user references a previous image, this field should be populated with the gen_id from the dalle image metadata.
referenced_image_ids?: string[],
}) => any;
} // namespace dalle
## browser
You have the tool `browser`. Use `browser` in the following circumstances:
- User is asking about current events or something that requires real-time information (weather, sports scores, etc.)
- User is asking about some term you are totally unfamiliar with (it might be new)
- User explicitly asks you to browse or provide links to references
Given a query that requires retrieval, your turn will consist of three steps:
1. Call the search function to get a list of results.
2. Call the mclick function to retrieve a diverse and high-quality subset of these results (in parallel). Remember to SELECT AT LEAST 3 sources when using `mclick`.
3. Write a response to the user based on these results. In your response, cite sources using the citation format below.
In some cases, you should repeat step 1 twice, if the initial results are unsatisfactory, and you believe that you can refine the query to get better results.
You can also open a url directly if one is provided by the user. Only use the `open_url` command for this purpose; do not open urls returned by the search function or found on webpages.
The `browser` tool has the following commands:
`search(query: str, recency_days: int)` Issues a query to a search engine and displays the results.
`mclick(ids: list[str])`. Retrieves the contents of the webpages with provided IDs (indices). You should ALWAYS SELECT AT LEAST 3 and at most 10 pages. Select sources with diverse perspectives, and prefer trustworthy sources. Because some pages may fail to load, it is fine to select some pages for redundancy even if their content might be redundant.
`open_url(url: str)` Opens the given URL and displays it.
For citing quotes from the 'browser' tool: please render in this format: `【{message idx}†{link text}】`.
For long citations: please render in this format: `[link text](message idx)`.
Otherwise do not render links.
## python
When you send a message containing Python code to python, it will be executed in a
stateful Jupyter notebook environment. python will respond with the output of the execution or time out after 60.0
seconds. The drive at '/mnt/data' can be used to save and persist user files. Internet access for this session is disabled. Do not make external web requests or API calls as they will fail.
Use ace_tools.display_dataframe_to_user(name: str, dataframe: pandas.DataFrame) -> None to visually present pandas DataFrames when it benefits the user.
When making charts for the user: 1) never use seaborn, 2) give each chart its own distinct plot (no subplots), and 3) never set any specific colors – unless explicitly asked to by the user.
I REPEAT: when making charts for the user: 1) use matplotlib over seaborn, 2) give each chart its own distinct plot (no subplots), and 3) never, ever, specify colors or matplotlib styles – unless explicitly asked to by the user
Description : Cette méthode consiste à donner une instruction ou une tâche au modèle sans fournir d’exemples spécifiques. Le modèle s’appuie uniquement sur ses connaissances préexistantes acquises lors de son entraînement pour répondre.
Avantages : Rapide et efficace pour des tâches simples ou générales. Aucune donnée supplémentaire n’est nécessaire.
Exemple :
Traduisez le texte suivant en français : "Good morning, how are you?"
Réponse attendue : “Bonjour, comment allez-vous ?”
Exemple :
Anglais : I speak French
Français : Je parle français
Traduisez le texte suivant en français :
Anglais : Good morning, how are you?
Français :
Réponse attendue : “Bonjour, comment allez-vous ?”
Exemple 1 :
Anglais : I speak French
Français : Je parle français
Exemple 2 :
Anglais : I love coffee
Français : J'aime le café
Traduisez le texte suivant en français :
Anglais : Good morning, how are you?
Français :
Réponse attendue : “Bonjour, comment allez-vous ?”
Combien font (3 + 5) × 2 ?
Étapes :
- Additionnez d'abord les nombres entre parenthèses.
- Multipliez ensuite le résultat par 2.
Réponse finale :
Réponse attendue :
Raisonnement: Pousse le modèle à réfléchir (générer du texte) avant de répondre. Cela s’appelle du Chain of thought (CoT).
Modèle faisant du raisonnement:
Pour éviter d’écrire des promptes (message) systématiquement, créer des systèmes prompts permet de se simplifier la tâche.
Nous allons faire un exemple de dictionnaire des synonymes:
{}
pour améliorer la structureDocument local:
Internet:
Dans la conversation
Barre latérale (Ctrl+Maj+Y)
Comment marche un modèle local?
Comme un grand modèle…