Ollama
Lokale KI mit Ollama — Praxis, Grenzen und was YouTube verschweigt
Lokale KI-Modelle haben sich von einem Nischenprojekt zu einer ernst zu nehmenden Alternative zu Cloud-Diensten entwickelt. Ollama macht den Einstieg niedrigschwellig — ein einzelner Befehl genügt, um …
Ein RSS-Reader mit lokaler KI-Pipeline
fuckupRSS ist ein RSS-Aggregator mit einer 8-stufigen KI-Analyse-Pipeline, die vollständig lokal läuft — gebaut mit Rust, Svelte und Ollama, ohne Cloud, ohne API-Keys, ohne geteilte Daten. Der Ansatz: …