Lokale KI-Abfragen mit "LM Studio" und "Ollama"
E-Book-Manager Calibre: KI-Unterstützung für die eigene Sammlung
Der freie E-Book-Manager Calibre erhält mit seinem aktuellen Update neue Funktionen rund um die Integration von Künstlicher Intelligenz. Nutzer können nun zu jedem Buch aus der eigenen Bibliothek Fragen stellen.
Dazu wird im Ansichtsmenü per Rechtsklick eine neue Abfragefunktion aufgerufen, die den Inhalt des ausgewählten Titels berücksichtigt. Ergänzend gibt es eine weitere KI-Option, mit der sich auf Basis vorhandener Bücher eine Leseempfehlung für den nächsten Titel erzeugen lässt.
Neu ist außerdem die Unterstützung von „LM Studio“, die „Ollama“ ergänzt. Über diese Anbindung lassen sich unterschiedliche KI-Modelle lokal auf dem eigenen Rechner ausführen, ohne dass eine Cloud-Verbindung notwendig ist. Technisch bedeutet dies, dass die Auswertung direkt auf dem eigenen Rechner erfolgt und persönliche Bibliotheksdaten damit lediglich lokal verarbeitet werde.
Zahlreiche Korrekturen integriert
Neben den neuen Funktionen enthält das Update eine Reihe von Fehlerbehebungen. Der PDF-Import wurde an einer Stelle korrigiert, an der es zuvor zu Problemen bei der Darstellung von eingebettetem HTML-Code gekommen war. Auch die Behandlung historischer Zeitangaben wurde verbessert.
Anpassungen betreffen zudem die Anbindung externer Buchquellen. Das Plug-in für Amazon wurde aktualisiert. Auch die Kommandozeilenwerkzeuge von Calibre profitieren von Korrekturen. Die Erzeugung von BiBTeX-Katalogen liefert nun verlässliche Sprachfelder, und formatspezifische Optionen werden wieder korrekt übernommen.

Darüber hinaus beseitigt das Update mehrere Probleme, die in der vorherigen Version auftraten. Dazu zählen eine fehlende Funktion zur Änderung der Groß und Kleinschreibung in den Kommentaren sowie zwei Fehler im neuen KI-Bereich. In einem Fall funktionierte die Leseempfehlung nicht wie vorgesehen. In einem anderen führte das Schließen des KI-Dialogs auf manchen Systemen zu einem Absturz. Beide Punkte wurden nach Angaben der Entwickler behoben.


Hoffentlich kommt irgendwann die KI Unterstützung bei der Bearbeitung der Meta Daten.
Bedeutet das, dass die gesamte Bibliothek aller Nutzer der KI (welche eigentlich?) zur Verfügung gestellt wird? Ist das legal?
Soweit mir bekannt ist, läuft Ollama rein lokal.
Warum nur die Überschrift lesen, wenn doch im Text soviel mehr erklärt wird? Gern geschehen… Wenn Du es inhaltlich nicht verstehst, einfach fragen.
„Neu ist außerdem die Unterstützung von „LM Studio“, die „Ollama“ ergänzt. Über diese Anbindung lassen sich unterschiedliche KI-Modelle lokal auf dem eigenen Rechner ausführen, ohne dass eine Cloud-Verbindung notwendig ist. Technisch bedeutet dies, dass die Auswertung direkt auf dem eigenen Rechner erfolgt und persönliche Bibliotheksdaten damit lediglich lokal verarbeitet werde.“
Wird Zeit für die Integration einer KI bei ifun zur Zusammenfassung der wahnsinnig langen und komplizierten Artikel…
Das bedeutet, dass der Artikel gelesen werden muss.
Man lädt sich über ollama oder Lmstudio ein freies KI Modell runter und das arbeitet dann komplett lokal auf deinem Pc. Es gibt verschiedene KI Modelle die man frei herunterladen kann für verschiedene Zwecke und halt abgestimmt auf die Leistung der eigene Hardware.
KI halte ich da für absolut überflüssig, aber trotzdem ganz großes Kino, tolles Programm, bitte weiter so.
Selten: Hier wäre eine Modernisierung der GUI mal schön.