Möchten Sie Ihren eigenen KI-Chatbot erstellen, ohne auf externe APIs angewiesen zu sein? Dann sind Sie hier genau richtig! In diesem Blog-Beitrag erfahren Sie, wie Sie lokale Sprachmodelle mit Ollama und Python einrichten und verwenden können. Diese leistungsstarke Kombination ermöglicht es Ihnen, fortschrittliche KI-Modelle direkt auf Ihrem eigenen Computer auszuführen und somit die volle Kontrolle über Ihre KI-Konversationen zu behalten. Voraussetzung: Lokale Installation von Ollama auf Mac und Windows
Python-Implementierung
Nachdem Ollama eingerichtet ist, erstellen wir unseren Python-Chatbot:
Umgebung einrichten:
Erstellen und aktivieren Sie eine neue virtuelle Python-Umgebung:
python3 -m venv .venv
source .venv/bin/activate
Erforderliche Bibliotheken installieren:
pip install ollama
Python-Skript erstellen:
import ollama
def chat_with_ollama():
print("Willkommen beim Ollama Chatbot! Schreibe 'exit' um die Unterhaltung zu beenden.")
while True:
user_input = input("You: ")
if user_input.lower() == 'exit':
print("Chatbot: Tschüss!")
break
response = ollama.chat(model='llama3:latest', messages=[
{
'role': 'user',
'content': user_input,
},
])
print("Chatbot:", response['message']['content'])
if __name__ == "__main__":
chat_with_ollama()