Vergleich der von nele.ai verwendeten KI-Modelle
Welche KI-Modelle bietet nele.ai an?
nele.ai stellt verschiedene KI-Modelle zur Generierung von Texten und Bildern sowie zur Bilderkennung (Vision) zur Verfügung.
Textgenerierende KI-Modelle bei nele.ai (Stand August 2024):
Serverstandort Europa
Azure GPT-4o (128k ➜ ca. 96.000 Wörter* pro Chat) - Trainiert mit Daten bis Oktober 2023
Azure GPT-4o mini (128k ➜ ca. 96.000 Wörter* pro Chat) - Trainiert mit Daten bis Oktober 2023
Azure GPT-4 Turbo (128k ➜ ca. 96.000 Wörter* pro Chat) - Trainiert mit Daten bis Dezember 2023
Azure GPT-3.5 Turbo (16k ➜ ca. 12.000 Wörter* pro Chat) - Trainiert mit Daten bis September 2021
Claude 3.5 Sonnet (200k ➜ ca. 150.000 Wörter pro Chat) - Trainiert bis August 2023
Claude 3 Haiku (200k ➜ ca. 150.000 Wörter pro Chat) - Trainiert bis August 2023
Mistral Small (32k ➜ ca. 24.000 Wörter pro Chat) – Trainingszeitpunkt unbekannt
Mistral Large (32k ➜ ca. 24.000 Wörter pro Chat) – Trainingszeitpunkt unbekannt
Serverstandort USA
GPT-4o (128k ➜ ca. 96.000 Wörter* pro Chat) - Trainiert mit Daten bis Oktober 2023
GPT-4o mini (128k ➜ ca. 96.000 Wörter* pro Chat) - Trainiert mit Daten bis Oktober 2023
GPT-4 Turbo (128k ➜ ca. 96.000 Wörter* pro Chat) - Trainiert mit Daten bis Dezember 2023
GPT-3.5 Turbo (16k ➜ ca. 12.000 Wörter* pro Chat) - Trainiert mit Daten bis September 2021
Claude 3 Opus (200k ➜ ca. 150.000 Wörter pro Chat) - Trainiert bis August 2023
Claude 3.5 Sonnet (200k ➜ ca. 150.000 Wörter pro Chat) - Trainiert bis August 2023
Claude 3 Haiku (200k ➜ ca. 150.000 Wörter pro Chat) - Trainiert bis August 2023
Bildgenerierende KI-Modelle bei nele.ai (Stand August 2024)
Serverstandort Europa
Azure DALL·E 3
Serverstandort USA
OpenAI DALL·E 3
Vision (Bilderkennungsmodelle) bei nele.ai (Stand August 2024)
Serverstandort Europa
Azure GPT-4o
Azure GPT-4o mini
Claude 3.5 Sonnet
Claude 3 Haiku
Serverstandort USA
GPT-4o
GPT-4o mini
Claude 3 Opus
Claude 3.5 Sonnet
Claude 3 Haiku
WICHTIGER HINWEIS
Alle von der KI generierten Inhalte müssen vor der Verwendung nochmals auf ihre Richtigkeit überprüft werden.
*Generative KI-Modelle sind durch ein Token-Limit beschränkt, wobei ein Token üblicherweise ein Wort, ein Teil eines Wortes oder ein Satzzeichen ist. Diese Begrenzung definiert, wie viel Text die KI in einer Sitzung verarbeiten oder generieren kann. Erreicht die Interaktion diese maximale Token-Zahl, kann die KI keine weiteren Informationen erfassen, ohne vorherige Inhalte zu überschreiben. Das bekannteste Beispiel dafür ist GPT-3 Turbo von OpenAI, dass eine Obergrenze von 12.000 Tokens hat. Innerhalb dieses Rahmens muss das System die relevantesten Informationen auswählen, um die Konversation zielführend fortzuführen.