ANFRAGE
Lokale Kommunikation mit Ollama und Python

SOFTWARE & KI

Möchten Sie Ihren eigenen KI-Chatbot erstellen, ohne auf externe APIs angewiesen zu sein? Dann sind Sie hier genau richtig! In diesem Blog-Beitrag erfahren Sie, wie Sie lokale Sprachmodelle mit Ollama und Python einrichten und verwenden können. Diese leistungsstarke Kombination ermöglicht es Ihnen, fortschrittliche KI-Modelle direkt auf Ihrem eigenen Computer auszuführen und somit die volle Kontrolle über Ihre KI-Konversationen zu behalten. Voraussetzung: Lokale Installation von Ollama auf Mac und Windows

Python-Implementierung

Nachdem Ollama eingerichtet ist, erstellen wir unseren Python-Chatbot:

Umgebung einrichten:

Erstellen und aktivieren Sie eine neue virtuelle Python-Umgebung:

python3 -m venv .venv
source .venv/bin/activate

Erforderliche Bibliotheken installieren:

pip install ollama

Python-Skript erstellen:

import ollama

def chat_with_ollama():
    print("Willkommen beim Ollama Chatbot! Schreibe 'exit' um die Unterhaltung zu beenden.")
    while True:
        user_input = input("You: ")
        if user_input.lower() == 'exit':
            print("Chatbot: Tschüss!")
            break

        response = ollama.chat(model='llama3:latest', messages=[
            {
                'role': 'user',
                'content': user_input,
            },
        ])

        print("Chatbot:", response['message']['content'])


if __name__ == "__main__":
    chat_with_ollama()