Zum Hauptinhalt springenZum Seitenfuß springen

 |  Blog

LLMs und Edge-Computing: Effiziente Datenanalyse und präzise Systemdiagnose

Datenverarbeitung und -analyse auf Edge-Geräten nehmen stark zu. Lokale Verarbeitung reduziert Datenübertragungen deutlich, spart Bandbreite und eröffnet neue Möglichkeiten für Systemdiagnosen durch große Sprachmodelle (LLMs).

Datenverarbeitung und -analyse gewinnen zunehmend an Bedeutung, insbesondere lokal auf Edge-Geräten. Diese lokale Verarbeitung reduziert die Menge der übertragenen Daten erheblich, indem nur relevante Informationen weitergeleitet werden. Dies spart Bandbreite, entlastet die Netzwerkinfrastruktur und eröffnet neue Möglichkeiten für die Systemdiagnose durch große Sprachmodelle (LLMs).

Edge-Analytics mit LLMs ermöglicht es Fachpersonal, potenzielle Probleme und Abnormalitäten durch Sprachbefehle direkt vor Ort zu identifizieren und Maßnahmen zu ergreifen. Dies trägt wesentlich zur Minimierung von Ausfallzeiten bei, besonders an Standorten ohne direkten Kabelzugang. Zudem verfügen diese Technologien über adaptive Lernfähigkeiten, die es ermöglichen, sich kontinuierlich an neue Daten und veränderte Bedingungen anzupassen. Dies führt zu einer optimierten Diagnose und einer gesteigerten Effizienz der Wartungsarbeiten

LLMs sind ideal für die Datenanalyse geeignet, da sie auf der Verarbeitung und Interpretation von Sprache basieren. Sie können Muster in Sprache erkennen und basierend darauf Antworten oder Vorschläge generieren. Diese Fähigkeit ist auch auf das Schreiben und Verstehen von Code übertragbar. In der Praxis bedeutet dies, dass LLMs komplexe Sprachanfragen verstehen, Algorithmen formulieren und sogar den Analysecode direkt generieren können (vgl. Abbildung 1). Dies ist besonders nützlich in Bereichen wie der Low-Level Business Intelligence, wo spezifische und komplexe Datenverarbeitungsaufgaben anfallen.

Die Auswahl des richtigen LLMs ist entscheidend für erfolgreiche Datenanalysen und sollte Kriterien wie Modellgröße, spezifische Analysefähigkeiten und Verarbeitungsgeschwindigkeit berücksichtigen. Zudem spielt das Prompt Engineering eine wichtige Rolle, um die Qualität der Analyseergebnisse zu verbessern und das volle Potenzial des Modells auszuschöpfen.

Darüber hinaus spielt die Art und Weise, wie Daten für die Analyse über ein Retrieval-Augmented Generation (RAG) System bereitgestellt werden, eine wichtige Rolle (vgl. Abbildung 2). Retrieval-Augmented Generation (RAG)-Systeme sind ein wesentlicher Bestandteil dieser Technologien, die die Fähigkeiten eines LLMs mit externen Wissensdatenbanken kombinieren, um die Generierung präziser Antworten zu verbessern. Ein RAG-System besteht aus drei Hauptkomponenten: dem Embedding-Modell, das Texte in numerische Vektoren umwandelt, die wesentliche Inhalte und Bedeutungen repräsentieren; dem Retriever, der relevante Dokumente, die am besten zu einer Frage passe, anhand dieser Vektoren schnell identifiziert; und dem LLM, das auf Basis dieser Informationen präzise Antworten generiert. 

 

Die Herausforderung für RAG-Systeme besteht darin, aus einer Vielzahl von Informationen genau diejenigen auszuwählen, die eine gestellte Frage präzise beantworten können. Fortgeschrittene Techniken spielen hierbei eine entscheidende Rolle. Dazu zählt insbesondere die Verbesserung der Embedding-Modelle, die Texte genauer in numerische Vektoren umwandeln, um eine genauere Übereinstimmung zwischen Fragen und Informationen zu ermöglichen. Der kontinuierlich optimierte Retriever des Systems nutzt maschinelles Lernen, um relevantere Informationen effizient zu identifizieren. Zudem ist die Integration verlässlicher Datenquellen durch ein effizientes Datenqualitätsmanagementsystem von großer Bedeutung, um die Informationsbasis signifikant zu verbessern. Abschließend prüft und validiert das LLM die abgerufenen Informationen, um Konsistenz und Glaubwürdigkeit sicherzustellen, bevor es eine finale Antwort generiert.

Wir bieten umfassende Unterstützung für die Nutzung von Sprachmodellen auf Edge-Geräten, um ihr volles Potenzial auszuschöpfen. Unsere optimierten Retrieval-Augmented Generation (RAG) Lösungen sind genau auf Ihre Bedürfnisse zugeschnitten und ermöglichen eine effektive Integration von Informationen in die Dialogführung. Dies führt zu präzisen und kontextabhängigen Antworten, die in verschiedenen Anwendungsfällen zu einer signifikanten Steigerung der Produktivität führen können. Wir arbeiten eng mit Ihnen zusammen, um die spezifischen Möglichkeiten in Ihrem Unternehmen oder für Ihren speziellen Anwendungsfall auszuloten und eine optimale Nutzung sicherzustellen.

Über den Autor

 

Pascal Scheck studiert Informatik mit dem Schwerpunkt Künstliche Intelligenz. Im Zuge seines Praxissemesters bei M&M Software hatte er die Gelegenheit, seinem Interesse an Large Language Modellen (LLMs) nachzugehen, indem er deren Einsatzmöglichkeiten auf Edge-Geräten evaluierte. Diese praktische Erfahrung fließt nun in seine Tätigkeit als Werkstudent im Data & AI Team ein.

Über den Autor

 

Rainer Duda ist Data & AI Consultant bei M&M Software und berät Unternehmen bei der Entwicklung von datengetriebenen Geschäftsmodellen und Realisierung von KI-gestützten Applikationen. Er hat jahrelang am renommierten Institut für Telematik (TECO) des Karlsruher Instituts für Technologie (KIT) unter anderem am Projekt Smart Data Solution Center Baden-Württemberg (SDSC BW) als Data Scientist mitgewirkt und hält Lehraufträge in multivariater Statistik sowie angewandten Datenwissenschaften.

Erstellt von