DEVONthink ist meine eierlegende Wollmilchsau für das Sammeln und Weiterverarbeiten von Informationen und Dokumenten. Als Dokumentenmanagementsystem, das nicht auf externe Ressourcen zurückgreifen muss, ist DEVONthink allen anderen Lösungen haushoch überlegen. Müsste ich mich in der Windows-Welt bewegen, wäre allein DEVONthink für mich ein Grund, auf macOS umzusteigen.
In DEVONthink sammle ich einfach alles, was mir im Laufe des Tages unter die Finger kommt. Das reicht von langweiligen Rechnungen und Steuererklärungen bis hin zu irgendwelchen Informationsschnipseln aus dem Internet. Aus diesem Wust an Daten und Dokumenten erstelle ich regelmäßig neue Inhalte und erschließe mir so Zusammenhänge, die ich mir sonst mühsam zusammensuchen müsste. Dabei hilft auch eine eher "rudimentäre" künstliche Intelligenz, die in DEVONthink implementiert ist (z.B. die Funktion "Siehe auch..."). Zugegeben, die KI von DEVONthink ist rudimentär (oder sagen wir besser "limitiert") und im Zeitalter von ChatGPT & Co. dieses Begriffs eigentlich kaum noch würdig.
Schauen wir uns mal solche Werkzeuge der künstlichen Intelligenz (begrenzt oberflächlich) an und auch, was hinter diesen Werkzeugen steckt:
Die Grundlage solcher Werkzeuge sind so genannte Large Language Models (LLMs). LLMs sind eine Art Computerprogramm, das darauf trainiert ist, von Menschen geschriebene Texte zu verstehen und so zu schreiben, dass sie wie von Menschen geschrieben klingen. Stell dir vor, du hättest ein großes Buch mit vielen Informationen über Sprache, Wörter und Sätze. Dieses Programm hat dieses “Buch” gelesen und gelernt, wie Wörter und Sätze zusammenhängen. Auf dieser Grundlage kann es Texte schreiben, Fragen beantworten oder Gespräche führen. Es ist, als hätte das Programm ein sehr gutes Sprachgefühl, ohne dass es wirklich versteht, was es sagt - es erkennt nur Muster in der Sprache. Das Programm simuliert aber nicht nur Sprachgefühl, es simuliert sogar Emotionen und Empathie - und das so effektiv, dass man mittlerweise Psychotherapie mit gutem Erfolg mit Hilfe von KI betreiben kann.
Das klingt banal, ist aber hochkompliziert - und ich habe mit meinem Verständnis bisher nur an der Oberfläche gekratzt...
Aber die Integration dieser Large Language Models (LLMs) in Wissensdatenbanken wie DEVONthink könnte die Art und Weise, wie wir unser Wissen (also unsere gesammelten Dokumente) verwalten, auf eine neue Ebene heben. Diese LLMs bieten Möglichkeiten, Informationen besser zu durchsuchen, zu organisieren und sinnvoll zu nutzen. Schauen wir uns an, was sich hinter dem Begriff "LLM" verbirgt:
Ein Large Language Model (LLM) ist ein Computerprogramm, das auf künstlicher Intelligenz basiert und speziell darauf trainiert ist, menschliche Sprache zu verstehen, zu verarbeiten und darauf zu reagieren. Diese Modelle werden durch maschinelles Lernen entwickelt, einem Teilgebiet der künstlichen Intelligenz.
Wie funktioniert das?
Training mit riesigen Textmengen:
Ein LLM wird mit riesigen Textmengen aus Büchern, Webseiten, Artikeln und anderen Quellen trainiert. Dabei lernt das Modell nicht einzelne Fakten, sondern Muster und Zusammenhänge in der Sprache. LLMs können aber keine "Bücher lesen", sondern wandeln Textdaten in mathematische Muster um:
- Welche Wörter häufig zusammen auftreten.
- Wie Sätze grammatikalisch aufgebaut sind.
- Wie Ideen logisch ausgedrückt werden.
Mustererkennung statt echtem Verstehen:
Das Modell lernt nicht wie ein Mensch, sondern erkennt Muster. Es weiß zum Beispiel, dass auf die Frage „Wie ist das Wetter?“ die Antwort „Es ist sonnig“ wahrscheinlicher ist als „Es schmeckt gut“. Es versteht aber nicht wirklich, was Wetter oder Sonnenschein bedeutet - es arbeitet rein statistisch.
Das "Large" im Namen:
Der Begriff “Large” bedeutet, dass das Modell extrem groß ist - es hat Milliarden von Parametern (also Zahlenwerten), die es beim Lernen anpasst. Diese Parameter stellen die komplexen Muster der Sprache dar. Je größer ein Modell ist, desto besser kann es oft auf Anfragen reagieren, weil es mehr Muster und Details erfasst hat.
Verwendung:
LLMs können viele Dinge tun, zum Beispiel:
- Texte schreiben (Artikel, E-Mails, Geschichten).
- Fragen beantworten.
- Übersetzungen anfertigen.
- Mit Menschen chatten.
Ein einfaches Beispiel:
Wenn jemand den Satz „Ich habe einen Apfel gegessen“ schreibt und danach fragt „Welche Farbe hat er?“, dann erkennt ein LLM den Zusammenhang zwischen „Apfel“ und typischen Farben wie Rot oder Grün. Er gibt dann eine passende Antwort, basierend auf dem, was er während seiner Ausbildung „gelernt“ hat.
Zusammengefasst: Ein LLM ist ein hochkomplexes Programm, das riesige Textmengen analysiert, um die menschliche Sprache zu imitieren, ohne jedoch ein echtes Verständnis wie ein Mensch zu haben.
Die wichtigsten Modelle des digitalisierten Lernens
Es gibt verschiedene, mehr oder weniger bekannte LLM-Modelle, die derzeit im Vordergrund stehen. Sie wurden hauptsächlich von Suchmaschinenbetreibern entwickelt, und das hat seine Gründe:
Suchmaschinen und Large Language Models (LLMs) sind eng miteinander verbunden, da beide das Ziel verfolgen, Informationen effizient bereitzustellen und die Kommunikation zwischen Menschen und Computern zu verbessern. LLMs werden daher häufig von Suchmaschinenbetreibern entwickelt, da sie eine entscheidende Rolle bei der Verbesserung von Suchergebnissen, der Benutzererfahrung und der Erschließung neuer Geschäftsfelder spielen.
Hier eine kurze Beschreibung einiger wichtiger LLMs, hoffentlich einfach und verständlich genug:
- GPT-3 (Generative Pre-trained Transformer 3) wurde von OpenAI entwickelt. GPT-3 ist eines der bekanntesten linguistischen Modelle. Es kann sehr realistische und zusammenhängende Texte schreiben, Fragen beantworten und kreative Aufgaben lösen. Anwendungsbeispiele reichen von Chatbots über die Erstellung von Inhalten bis hin zu Programmierung und Spielen.
- GPT-3.5 stammt ebenfalls von OpenAI und ist eine verbesserte Version von GPT-3, die schneller und effizienter ist. Sie versteht Kontexte besser und gibt präzisere Antworten.
- GPT-4 ist die neueste und leistungsfähigste Version von OpenAI. GPT-4 versteht komplexe Texte und Aufgaben besser, ist genauer und kreativer als die Vorgängerversionen und erstellt und verarbeitet qualitativ hochwertige Texte, komplexe Analysen und anspruchsvolle Konversationen.
- Claude wurde von Anthropic entwickelt und ist ein KI-Modell, das besonders auf sichere und "verantwortungsvolle" Konversationen ausgelegt ist. Es ist wie ein smarter Assistent, der Fragen beantwortet und Gespräche führt, während es versucht, Missbrauch zu verhindern. Anthropic nutzt spezielle Trainingsmethoden und Sicherheitsmechanismen, um das Risiko zu minimieren, dass Claude für manipulative Zwecke (z.B. "Fake News" oder "Desinformation" - wobei das schon wieder ein deutlicher Kritikpunkt ist) eingesetzt wird.
- GPT4All ist ein Open-Source-Sprachmodell, das auf der GPT-Technologie basiert und von Nomic AI entwickelt wurde. Es wurde so angepasst, dass es lokal auf den Geräten der Nutzer läuft und keine Internetverbindung benötigt, was es datenschutzfreundlich und vielseitig einsetzbar macht. Nutzer können mit GPT4All offline Texte generieren, Notizen organisieren oder Chatbots für bestimmte Aufgaben, z. B. im Kundenservice, erstellen.
- Gemini, der Nachfolger von Bard, stammt aus dem Umfeld von Google (Google DeepMind) und ist ein KI-Sprachmodell, das für komplexe Aufgaben wie Textanalyse, kreative Textgenerierung und technische Problemlösung entwickelt wurde. Gemini kann (wie andere Sprachmodelle auch) bei der Erstellung wissenschaftlicher Berichte, der Codierung von Software oder der interaktiven Kommunikation mit Kunden helfen und versteht komplexe und technische Anfragen besser als andere Modelle.
- Mistral AI stammt von Mistral AI, einem französischen Softwareunternehmen, und wurde entwickelt, um hohe Leistung mit geringem Ressourcenverbrauch zu kombinieren. Nach meiner persönlichen Einschätzung können die Anwendungsergebnisse in Bezug auf die Benutzerfreundlichkeit noch nicht mit anderen Tools mithalten. Mistral AI ist besonders für datenschutzkritische Anwendungen interessant, da es lokal eingesetzt werden kann.
- LM Studio (Ollama) stammt von Ollama und ist eine offene und kostenlose Software, die mit vergleichsweise geringen Hardwareanforderungen auf dem eigenen Computer oder Server betrieben werden kann. Sie stellt Datenschutz und Effizienz in den Vordergrund und ist besonders für kleine Unternehmen und Einzelentwickler interessant. Beispiel: Entwickler können mit Ollama einen Chatbot für ein medizinisches Beratungstool erstellen, der lokal läuft und sensible Patientendaten schützt.
Es gibt noch etliche andere Modelle, auf die ich hier nicht eingehen möchte. Alle diese Modelle haben unterschiedliche Stärken, je nachdem, wofür sie entwickelt wurden - von allgemeinen Textanwendungen bis hin zu spezifischen wissenschaftlichen oder kulturellen Aufgaben. Das wohl am häufigsten verwendete Modell (ich kann es nicht genau belegen) ist GPT-4, das als Basis für ChatGPT dient. Ähnlich verhält es sich mit Perplexity (das mir persönlich inzwischen als tägliche Suchmaschine dient), wo GPT-3 als Basis dient.
LLMs und Wissensmanagement-Software
Large Language Models (LLMs) können eine wichtige Rolle in aktiven Wissensmanagement-Softwarelösungen wie DEVONthink spielen, indem sie die Art und Weise verbessern, wie Benutzer Informationen organisieren, finden, verstehen und nutzen. DEVONthink ist bekannt für seine Fähigkeiten zur Dokumentenorganisation, Informationssuche und -verarbeitung - und LLMs könnten diese Funktionen auf eine neue Ebene heben.
Ich glaube, dass die Integration von LLMs in eine Wissensmanagement-Software wie DEVONthink für die Zukunft von entscheidender Bedeutung ist. Wenn es DEVONthink nicht gelingt, KI umfassend zu integrieren, wird es zu einer reinen (zweifellos hochfunktionalen) Dokumentenablage. Als Werkzeug für die produktive Arbeit vor allem mit Texten wird es dann aber immer mehr ins Hintertreffen geraten. Meine eigene produktive Arbeit sieht momentan so aus, dass ich permanent zwischen KI-basierten Werkzeugen wie ChatGPT, DeepL Write, Language Tool etc. hin und her springe. Das ist einfach unbefriedigend.
Hier sind einige Gedanken über die Bedeutung und mögliche Anwendungen von KI im Alltag (mit und ohne DEVONthink):
Verbesserte Such- und Abruffunktionen
DEVONthink bietet eine leistungsfähige Suchfunktion, aber LLMs könnten diese erheblich erweitern
Semantische Suche:
- Anstatt nur nach exakten Schlüsselwörtern zu suchen, könnte ein LLM die Bedeutung von Anfragen verstehen und kontextrelevante Dokumente oder Informationen liefern.
- Beispiel: Eine Suche nach „Wie funktioniert Blockchain“ liefert nicht nur Dokumente mit diesem Wortlaut, sondern auch solche mit verwandten Konzepten wie „verteilte Datenbank“ oder „Kryptographie“. Dies ist in der aktuellen Version von DEVONthink in gewissen Grenzen möglich, aber nicht wirklich zufriedenstellend.
- Natural Language:** Benutzer könnten Anfragen in normaler Sprache stellen (z.B. „Zeig mir meine Notizen zum Projekt X vom letzten Monat“) und das LLM würde die Ergebnisse entsprechend aufbereiten.
Automatische Organisation und Kategorisierung
- LLMs könnten Inhalte in DEVONthink automatisch analysieren und organisieren: Basierend auf dem Inhalt eines Dokuments könnten LLMs relevante Schlüsselbegriffe und Themen erkennen und die Dateien automatisch mit Tags versehen oder in Kategorien einordnen.
- Verknüpfung ähnlicher Inhalte: Ein LLM könnte Beziehungen zwischen verschiedenen Dokumenten erkennen und Vorschläge machen, welche Notizen, PDFs oder Artikel zusammengehören, auch wenn sie nicht identische Begriffe verwenden. Diese inhaltliche Verknüpfung ist in DEVONthink 3 (und auch in den Vorgängerversionen) bereits in gewissem Umfang realisiert - allerdings mit viel Luft nach oben.
Intelligente Zusammenfassungen
- LLMs könnten lange Dokumente oder Notizen analysieren und prägnante Zusammenfassungen erstellen. Auch dies ist mit DEVONthink 3 in Grenzen bereits möglich.
- Beispiel: Ein wissenschaftlicher Artikel oder ein Sitzungsprotokoll wird automatisch auf die wichtigsten Punkte reduziert, so dass der Benutzer die Kernaussagen schneller erfassen kann.
Personalisierte Nutzung von Wissen
- Kontextsensitive Vorschläge: LLMs können relevante Dokumente oder Informationen basierend auf dem aktuellen Fokus eines Benutzers vorschlagen (z.B. ein geöffnetes Projekt oder eine Notiz).
- Beispiel: Beim Schreiben einer Notiz zu einem Projekt zeigt das LLM verwandte Notizen, frühere Diskussionen oder relevante PDFs an. Dies ist auch eingeschränkt über die "Siehe auch..."-Funktion oder die sogenannte "Konkordanz" möglich (die vermutlich ohnehin kaum jemand nutzt).
- Fragen an das eigene Wissen: Nutzer könnten Fragen stellen wie „Was habe ich letztes Jahr zum Thema Y recherchiert?“ und das LLM würde die relevanten Notizen durchsuchen und eine Antwort generieren.
Automatische Textgenerierung
- Erstellung von Inhalten: LLMs könnten dabei helfen, neue Notizen, Berichte oder Zusammenfassungen auf der Grundlage der gespeicherten Informationen zu erstellen. Das funktioniert in Tools wie ChatGPT bereits hervorragend, aber als DEVONthink-Benutzer hätte ich das gerne so in das Programm integriert, dass ich nicht ständig zwischen ChatGPT, DeepL Write, Language Tool etc. hin und her springen muss.
- Beispiel: Aus mehreren Notizen wird ein zusammenhängender Bericht erstellt.
- Übersetzungen und Umformulierungen: LLMs können Textbausteine in andere Sprachen übersetzen oder komplexe Inhalte in eine einfachere Sprache umwandeln.
Unterstützung bei der Wissenserschließung
- Inhaltsanalyse: LLMs können Dokumente in DEVONthink analysieren und komplexe Themen erklären, z.B. wissenschaftliche Artikel oder technische Berichte.
- Beispiel: Eine Notiz zu einem technischen Thema wird von einem LLM in leicht verständliche Sprache übersetzt.
- Ideenfindung: Durch die Verarbeitung der gespeicherten Daten kann das LLM neue Verbindungen oder Erkenntnisse vorschlagen, die der Benutzer vielleicht übersehen hat.
Zeitersparnis durch Automatisierung
- LLMs könnten viele manuelle Aufgaben wie Tagging, Sortieren oder Zusammenfassungen übernehmen, so dass sich der Benutzer auf die eigentliche Arbeit konzentrieren kann.
Schwierigkeiten und Probleme
Trotz dieser Vorteile gibt es auch Herausforderungen, die berücksichtigt werden müssen:
- Datenschutz: Viele LLMs benötigen große Datenmengen und sensible Informationen könnten gefährdet sein. Eine lokale Integration (z.B. Open Source LLMs) könnte hier Abhilfe schaffen.
- Kosten: Der Einsatz von leistungsfähigen LLMs kann rechenintensiv sein, was eine große Herausforderung bei der Integration in bestehende Software darstellt.
- Genauigkeit: LLMs können Fehler machen oder falsche Verbindungen zwischen Inhalten herstellen, was zu Fehlinformationen führen kann.
Schlussfolgerung
Die Integration von LLMs in DEVONthink könnte die Software zu einem noch leistungsfähigeren Werkzeug für das Wissensmanagement machen. Die Benutzer würden von einer besseren Organisation, einer intelligenten Suche und automatisierten Prozessen profitieren. Gleichzeitig ist eine datenschutzfreundliche und lokal einsetzbare Implementierung wichtig, um die Stärken von LLMs effektiv und sicher zu nutzen. Fazit: Wenn es DEVONtechnologies gelänge, die oben genannten Aspekte in DEVONthink zu integrieren:
Es wäre eine Killersoftware.
Bildquelle: Pexels (Kaushal Moradiya)