Ihre KI. Ihr Server. Keine Abhängigkeiten. Hergestellt in Europa. AKHET® Local AI
On-Premise-Bereitstellung = Endlich Schluss mit Datenlecks •
Verwandelt isolierte Datensilos in wertvolle Wissensdatenbanken •
Automatisiert wiederkehrende Routineaufgaben •
Souverän – Datenschutz und Leistung immer im Blick •
Auf alle Bedürfnisse zugeschnitten für maximale Autonomie •
AKHET® Local AI Das ist Ihre Box!
AI-in-the-Box
Fügen Sie einfach die Lizenz Ihrer Bestellung hinzu, und Sie erhalten von uns eine sofort einsatzbereite Komplettlösung.
Leistungsstarke Inference-Engine
Optimierte Laufzeit für schnelle und effiziente KI-Antworten.
Zugriffskontrolle der Enterpriseklasse
Rollen- und organisationsbasierte Berechtigungen zur sicheren Verwaltung der Zugriffsrechte aller Nutzer.
Wissensdatenbanken für Unternehmensdaten
Unternehmensinterne Daten für KI erfassen, indexieren und organisieren – ohne Ihre Umgebung zu verlassen.
Volle Mandantenfähigkeit.
Wir verstehen das Service Provider Geschäft.
Vorinstallierte LLMs flexibel kombinieren
Nutzen Sie führende Open-Source-Modelle wie GPT-OSS, LLaMA, Mistral, Microsoft-Modelle u. v. m. – mit der Option, externe Modelle einzubinden.
Hochleistungsfähige Full-Stack-RAG-Pipeline
Semantische Suche, Stichwortsuche und Metadatenfilter effizient kombinieren für präzise Ergebnisse.
Eigene KI-Agenten erstellen oder anpassen
Steigern Sie die Leistung und behalten Sie die volle Kontrolle über den Code.
Sicherheit durch Design
Keine externen API-Calls, keine versteckter Datenabfluß und vollständige Datenhoheit garantiert.
AKHET® powered by co-mind.ai Ihre Wahl – Ihre Zukunft!

PYRAMID AKHET® Local AI Medium
Ideal für: Concurrent model inferencing (moderate Auslastung), mittlere bis große LLMs und ~ 50 gleichzeitige Nutzer
- Formfaktor: 2U dual socket, rackmount
- CPU: 2x AMD EPYC 9115, 16C, 32T, 2.6GHz, 125W
- RAM: 8x 128GB Module 6400 ECC REG
- OS: 2x 3.84TB 2.5″ PCIe 5.0 SSD
- Daten: 6x 3.84TB 2.5″ PCIe 5.0 SSD
- NICs: 2x 10GbE (optional: 25GbE and 100GbE)
- GPU: 2x NVIDIA L4 24GB GPU PCIe 4.0
- Stromversorgung: 2x 700W hot-swap CRPS mit 80+ Titanium Effizienz für verlässliche Stromlieferung und Energieeffizienz

PYRAMID AKHET® Local AI Premium
Ideal für: High-throughput inferencing, große produktive Multimodell-Umgebungen, große LLMs und ~150 gleichzeitige Nutzer
- Formfaktor: 2U dual socket, rackmount
- CPU: 2x AMD EPYC 9335, 32C, 64T, 3GHz, 210W>
- RAM: 16x 128GB Module 6400 ECC REG
- OS: 2x 3.84TB 2.5″ PCIe 5.0 SSD
- Daten: 6x 7.68TB 2.5″ PCIe 5.0 SSD
- NICs: 2x 10GbE (optional: 25GbE and 100GbE)
- GPU: 2x NVIDIA L40S 48GB GPU PCIe 4.0
- Stromversorgung: 2x 700W hot-swap CRPS mit 80+ Titanium Effizienz für verlässliche Stromlieferung und Energieeffizienz

PYRAMID AKHET® Local AI Platium
Ideal für: High-throughput, multi-modal inference + GPU Beschleunigung, beschleunigte Multimodell-Umgebungen, große und multi-modale LLMs (Bild/Sprache) und 500+ gleichzeitige Nutzerr
- Formfaktor: 2U dual socket, rackmount
- CPU: 2x AMD EPYC 9535, 64C, 128T, 2.4GHz, 300W>
- RAM: 16x 128GB Module 6400 ECC REG
- OS: 2x 3.84TB 2.5″ PCIe 5.0 SSD
- Daten: 6x 15.36TB 2.5″ PCIe 5.0 SSD
- NICs: 2x 10GbE, 1x Intel E810-CQDA2 2x 100GbE PCIe
- GPU: 2x NVIDIA RTX 6000 48GB GPU PCIe 5.0
- Stromversorgung: 2x 700W hot-swap CRPS mit 80+ Titanium Effizienz für verlässliche Stromlieferung und Energieeffizienz
FAQs
KI ist die Abkürzung für Künstliche Intelligenz und beschreibt eine Reihe von Computersystemen, die darauf trainiert sind, menschliche Aufgaben wie Lernen, Problemlösen, Sprachverständnis und Entscheidungsfindung zu simulieren.
Neben Hochleistungsrechnern benötigt KI enorme Datenmengen, um fortgeschrittene und komplexe Algorithmen zu „füttern“, die Muster und Zusammenhänge erkennen. Bedenken Sie jedoch, dass jedes KI-Modell nur so gut ist wie die Daten, die ihm während des Trainings zur Verfügung gestellt werden.
Ja, absolut. Wie in allen anderen Geschäftsbereichen führen qualitativ hochwertige Daten zu genauen Vorhersagen und Ergebnissen, höherer Effizienz sowie geringeren Verzerrungen und Ressourcenverschwendung. Letztendlich besteht ein klarer Zusammenhang zwischen exzellenter Datenqualität und besseren Geschäftsergebnissen sowie niedrigeren Betriebskosten.
Noch wichtiger ist, dass saubere, ausgewogene und repräsentative Datensätze verhindern, dass KI-Modelle Blasen mit unfairen oder diskriminierenden Ergebnissen erzeugen.
Es gibt die enge KI (Narrow AI), die für spezifische Aufgaben eingesetzt wird, die generative KI (Generative AI), die neue Inhalte erzeugt – sei es Text, Bilder oder sogar Code – und die allgemeine KI (General AI), die menschenähnliche Intelligenz besitzt, die bisher noch nicht erreicht ist.
Manche Experten glauben, dass künstliche allgemeine Intelligenz (AGI) bereits 2026 erreicht werden könnte, andere sagen, dass es noch Jahrzehnte dauern wird, und einige gehen sogar davon aus, dass sie niemals realisiert wird.
KI-Agenten sind spezialisierte digitale Assistenten, die Aufgaben eigenständig ausführen. Sie nutzen KI, um Informationen zu verstehen, Entscheidungen zu treffen und Prozesse zu automatisieren. Im Gegensatz zu herkömmlicher Software arbeiten sie flexibel, lernen aus Daten und können individuell an Ihre Anforderungen angepasst werden.
Generative KI analysiert nicht nur Daten. Sie ist die Art von Künstlicher Intelligenz, die neue Inhalte erstellt – egal ob Text, Bilder, Audio oder Video.
Generative KI-Modelle werden ebenfalls mit großen Mengen bestehender Daten trainiert und lernen die zugrunde liegenden Muster, Strukturen und Zusammenhänge innerhalb dieser Daten, um neue Inhalte als Reaktion auf Benutzereingaben zu erzeugen.
ML ist ein Teilbereich der KI und nutzt Algorithmen, um große Mengen historischer Daten zu verarbeiten. Im Gegensatz zu herkömmlicher Software oder Anwendungen lernt ML eigenständig aus immer größeren Datensätzen, ohne dass eine explizite Programmierung erforderlich ist.
Innerhalb der umfangreichen Datenmengen können die Algorithmen Muster, Trends und Zusammenhänge erkennen. Häufige Anwendungsfälle für ML sind beispielsweise Betrugserkennung oder Bilderkennung.
LLM steht für „Large Language Model“ (großes Sprachmodell). LLMs werden mit enormen Textmengen trainiert, wodurch sie Sprache verstehen, Texte und Code generieren, Fragen beantworten, Anfragen bearbeiten, Texte von einer Sprache in eine andere übersetzen, umfangreiche Dokumente in kurze, prägnante Zusammenfassungen verdichten oder große textbasierte Datensätze auf Erkenntnisse und Trends analysieren können.
Nun, die ehrliche Antwort lautet: Es kommt darauf an. Ein KI-Modell von der ersten Forschung bis zum Training und zur Verfeinerung zu entwickeln, erfordert nicht nur Zeit, Budget, Disziplin und Ausdauer.
Noch wichtiger ist, dass es qualifiziertes Personal mit tiefgehenden technischen Kenntnissen in Bereichen wie Modellarchitektur, Optimierung und Datenhandling benötigt. Anstatt bei Null zu beginnen, sollten Sie ein bereits vortrainiertes Modell in Betracht ziehen, wie AKHET® Local AI, und es mit Ihren spezifischen Daten an Ihre Bedürfnisse anpassen.
Wenn Mitarbeiter KI-Tools ohne Genehmigung von Management oder IT-Abteilung nutzen, spricht man von Schatten-KI. Die Nutzung persönlicher Accounts auf öffentlichen KI-Plattformen birgt viele Risiken, wie Sicherheits-, Compliance- und Datenschutzverletzungen sowie Datenlecks. Schatten-KI umfasst öffentliche KI-Tools, Drittanbieter-KI-Plugins und -Agenten oder jede SaaS-Anwendung mit integrierten KI-Funktionen.
Wenn Ihre KI „halluziniert“, liefert sie Antworten, die zwar plausibel klingen, aber nicht korrekt sind. KI-Halluzinationen entstehen hauptsächlich durch unzureichende oder qualitativ schlechte Trainingsdaten, fehlerhafte Logik oder falsche Annahmen in den Algorithmen. Denken Sie z. B. an die Abfrage historischer Fakten, die zwar wahrheitsgetreu erscheinen, aber nicht korrekt sind.
KI-Bias ist ein systematischer Fehler. Wenn Trainingsdaten Vorurteile enthalten, führt dies zu Fehlern im Entscheidungsprozess der KI, die bestimmte demografische Gruppen benachteiligen oder unfair behandeln.
Ein Workflow beschreibt die einzelnen Schritte eines Prozesses. Mit KI können diese Workflows intelligent automatisiert werden, sodass die KI erkennt, was getan werden muss, und die Aufgaben ohne menschliches Eingreifen ausführt.
KI Ingest beschreibt einen entscheidenden Prozess beim Aufbau eines KI-Modells von Grund auf. Rohdaten müssen aus verschiedenen Quellen gesammelt, transformiert und geladen werden.
Normalerweise umfasst der Datenfeed sowohl strukturierte als auch unstrukturierte Daten. Ein weiterer wichtiger Schritt im KI-Ingest-Prozess ist die Aufbereitung der Daten durch Bereinigung, Validierung und Strukturierung.
KI Inferenz setzt ein trainiertes KI-Modell in die Praxis um, indem es Entscheidungen, Klassifikationen oder Vorhersagen auf Basis neuer, bisher unbekannter Daten trifft. In dieser Phase liefert die KI Wert, indem sie gelernte Muster nutzt, um auf neue, reale Eingaben zu reagieren. Ein Beispiel: Ein KI-Modell wurde auf tausenden Bildern von Hunden trainiert. Wenn es nun in einem völlig neuen Foto einen Hund erkennt, ist dies die Inferenz.
RAG steht für Retrieval Augmented Generation und ist entscheidend, um korrekte und aktuelle Informationen zu liefern und Antworten faktenbasiert zu untermauern, wodurch AI-Halluzinationen reduziert werden.
Eine RAG-Pipeline verbessert die Fähigkeit eines LLM, genaue und relevante Antworten zu generieren, indem sie an externe Wissensquellen angebunden wird. Der Prozess beginnt damit, externe Daten in kleinere Abschnitte zu teilen und diese in numerische Repräsentationen („Embeddings“) umzuwandeln, die in einer Vektordatenbank gespeichert werden.
Die ursprüngliche Nutzeranfrage wird dann mit den abgerufenen Textabschnitten kombiniert, um einen erweiterten Prompt zu erstellen, der es dem LLM ermöglicht, eine spezifischere und relevantere Antwort zu liefern.
Private KI gewährleistet Datenschutz und Sicherheit bei der Nutzung von KI im Unternehmen. Im Gegensatz zu lokaler KI bleiben die Daten innerhalb Ihrer kontrollierten Infrastruktur, müssen aber nicht zwingend auf einer einzigen lokalen Maschine liegen. Private AI kann lokal, in einer privaten Cloud oder in einer hybriden Umgebung bereitgestellt werden.
Wenn KI-Operationen auf einem lokalen Gerät oder Netzwerk ausgeführt werden, handelt es sich um Local AI. Alle Datensätze werden vollständig auf Ihrer eigenen Hardware verarbeitet und gespeichert.
Wir verwenden Open-Source-Modelle, die überprüf- und feinabstimmbar sind, sodass Sie Bias in den Ergebnissen jederzeit überwachen und entsprechende Maßnahmen ergreifen können. Da die Daten privat bleiben, haben Sie die volle Kontrolle über die Trainingsdatensätze, was wichtig ist, um externe Vorurteile nicht zu übernehmen. Transparenz und ethische Richtlinien sind uns wichtig – die Verantwortung für KI-Bias liegt bei Ihnen.
Traditionelle Automatisierung folgt festen Regeln, wie z. B. dem klassischen „If-Then“-Prinzip. KI-Agenten reagieren hingegen dynamisch, lernen aus Erfahrung, erkennen Muster in Daten und können komplexe Entscheidungen treffen. Dadurch sind KI-Agenten deutlich flexibler und vielseitiger.
Wir halten alle Datenverarbeitungen strikt intern, um jegliches Leck von personenbezogenen Daten wie Namen, Finanzinformationen, Gesundheitsdaten oder Zugangsdaten zu verhindern.
Während integrierte Anonymisierungstools wie bei spezialisierten Anbietern (z. B. Private KI, die PII über Sprachen und Entitäten hinweg identifiziert und anonymisiert) nicht enthalten sind, können Nutzer solche Funktionen integrieren oder eigene Vorverarbeitungen durchführen, um Compliance sicherzustellen.
Dieser Ansatz priorisiert Datenmanagement und Verschlüsselung und entspricht erhöhten Datenschutzanforderungen.
Deep Learning ist ein Teilbereich des Maschinellen Lernens und vom menschlichen Gehirn inspiriert. Deep Learning nutzt mehrschichtige neuronale Netzwerke, um komplexe Muster in Bildern, Texten und Geräuschen zu erkennen, was zu besonders präzisen Erkenntnissen und Vorhersagen führen kann.
Der Begriff „deep“ (tief) bezieht sich auf die Anzahl der Schichten in den Netzwerken, die leicht mehrere Hundert betragen können. Ein Beispiel für Deep Learning ist eine App auf Ihrem Smartphone, die Ihnen sofort die Übersetzung eines fremdsprachigen Straßenschildes liefert.
Ja, selbstverständlich. Die Integration mit Identitätsanbietern (SSO, LDAP) und Datenquellen (Dokumentenspeicher, Datenbanken, SharePoints und mehr) wird unterstützt.
Anfrage & Beratung

Ihre Kontaktperson:
Frederic Eschbach, Serena Liu, Ömer Gören



