20.8.2024

Das Abrechnungssystem und wie Sie nele.ai kosteneffizient nutzen

nele.ai – Das Abrechnungssystem und wie Sie das KI-Volumen effizient nutzen

 

nele.ai ist eine Applikation, die verschiedene KI-Modelle, Text, Code und Tabellen verbindet und sicherstellt, dass keine personenbezogenen Daten an die KI-Modelle gesendet werden oder sensible Unternehmensdaten für Trainingszwecke verwendet werden.

Für die Zukunft werden auch Modelle zum Generieren von Audio-, Video- und Bilddateien verfügbar sein.

Damit die verschiedenen KI-Modelle und Abrechnungssysteme in nele.ai vereint werden können, wurde eine übergreifende Abrechnungseinheit (Credits) entwickelt.

Um eine Investitionssicherheit beim Umgang mit KI zu gewährleisten, wird bei nele.ai ein monatliches Datenvolumen (KI-Volumen) gebucht, wodurch keine zusätzlichen Kosten pro Nutzer entstehen. So kann nele.ai jedem Mitarbeitenden zur Verfügung gestellt werden und das Kostenrisiko ist durch das festgelegte KI-Volumen begrenzt.

Das KI-Volumen kann bei Bedarf jederzeit angepasst werden.

Damit Sie den größtmöglichen Nutzen aus Ihrem KI-Volumen ziehen können, haben wir hier einige wichtige Punkte aufgelistet, die Sie beachten sollten:

 

1. Wählen Sie das passende KI-Modell für Ihre Aufgabe!

Zurzeit stehen Ihnen verschiedene KI-Modelle zur Bearbeitung Ihrer Aufgaben zur Verfügung. Jedes KI-Modell hat seinen indviduelle Verbrauchsfaktor da es eine unterschiedlich große Parametergröße hat und einen unterschiedlichen Aufwand für die Verarbeitung.

Hier die wichtigsten Unterschiede:

OpenAI

  • GPT 4o 128k
    • Kontextgröße: 128.000 Tokens
    • Verbrauchsfaktor: 0.25
    • Beschreibung: Fortschrittlichstes Modell mit 128K Kontext
  • GPT 4 Turbo 128k
    • Kontextgröße: 128.000 Tokens
    • Verbrauchsfaktor: 0.5
    • Beschreibung: Neues Modell mit 128K Kontext
  • GPT 4 8k
    • Kontextgröße: 8.192 Tokens
    • Verbrauchsfaktor: 1
    • Beschreibung: Hochwertige Antworten
  • GPT 3.5 Turbo 4k
    • Kontextgröße: 4.096 Tokens
    • Verbrauchsfaktor: 0.04
    • Beschreibung: Schnell und kostengünstig
  • GPT 3.5 Turbo 16k
    • Kontextgröße: 16.385 Tokens
    • Verbrauchsfaktor: 0.08
    • Beschreibung: Erlaubt mehr Wörter als GPT 3.5 Turbo 4k
  • DALL·E 3
    • Kontextgröße: 4.000 Tokens
    • Verbrauchsfaktor: 20-60 Credits/Bild
    • Beschreibung: Bildgenerierung von hoher Qualität

Anthropic

  • Claude Opus 200k
    • Kontextgröße: 200.000 Tokens
    • Verbrauchsfaktor: 1
    • Beschreibung: Bestes Anthropic Modell mit 200K Kontext
  • Claude Sonnet 200k
    • Kontextgröße: 200.000 Tokens
    • Verbrauchsfaktor: 0.2
    • Beschreibung: Ausgewogenes Anthropic Modell mit 200K Kontext
  • Claude Haiku 200k
    • Kontextgröße: 200.000 Tokens
    • Verbrauchsfaktor: 0.02
    • Beschreibung: Schnellstes Anthropic Modell mit 200K Kontext

Azure (Microsoft)

  • GPT 4 Turbo 128k
    • Kontextgröße: 128.000 Tokens
    • Verbrauchsfaktor: 0.5
    • Beschreibung: Neues Modell mit 128K Kontext
  • GPT 4 8k
    • Kontextgröße: 4.096 Tokens
    • Verbrauchsfaktor: 1
    • Beschreibung: Hochwertige Antworten
  • GPT 4 32k
    • Kontextgröße: 32.768 Tokens
    • Verbrauchsfaktor: 2
    • Beschreibung: Erlaubt mehr Wörter als GPT 4 8k
  • GPT 3.5 Turbo 4k
    • Kontextgröße: 4.096 Tokens
    • Verbrauchsfaktor: 0.04
    • Beschreibung: Schnell und kostengünstig
  • DALL·E 3
    • Kontextgröße: 4.000 Tokens
    • Verbrauchsfaktor: 20-60 Credits/Bild
    • Beschreibung: Bildgenerierung von hoher Qualität

kannst du jeden hauptpunkt in einen Satz verwandeln

Natürlich, hier sind die Hauptpunkte jeweils in Sätzen zusammengefasst:

OpenAI

  • GPT 4o 128k: Dieses fortschrittliche Modell hat eine Kontextgröße von 128.000 Tokens und einen Verbrauchsfaktor von 0.25.
  • GPT 4 Turbo 128k: Ein neues Modell mit einer Kontextgröße von 128.000 Tokens und einem Verbrauchsfaktor von 0.5.
  • GPT 4 8k: Dieses Modell bietet hochwertige Antworten mit einer Kontextgröße von 8.192 Tokens und einem Verbrauchsfaktor von 1.
  • GPT 3.5 Turbo 4k: Mit einer Kontextgröße von 4.096 Tokens und einem Verbrauchsfaktor von 0.04 ist dieses Modell schnell und kostengünstig.
  • GPT 3.5 Turbo 16k: Dieses Modell erlaubt mehr Wörter als GPT 3.5 Turbo 4k, mit einer Kontextgröße von 16.385 Tokens und einem Verbrauchsfaktor von 0.08.
  • DALL·E 3: Dieses Modell bietet hochwertige Bildgenerierung mit einer Kontextgröße von 4.000 Tokens und einem Verbrauchsfaktor von 20-60 Credits pro Bild.

Anthropic

  • Claude Opus 200k: Das beste Anthropic-Modell hat eine Kontextgröße von 200.000 Tokens und einen Verbrauchsfaktor von 1.
  • Claude Sonnet 200k: Ein ausgewogenes Anthropic-Modell mit einer Kontextgröße von 200.000 Tokens und einem Verbrauchsfaktor von 0.2.
  • Claude Haiku 200k: Das schnellste Anthropic-Modell hat eine Kontextgröße von 200.000 Tokens und einen Verbrauchsfaktor von 0.02.

Azure (Microsoft)

  • GPT 4 Turbo 128k: Ein neues Modell von Microsoft mit einer Kontextgröße von 128.000 Tokens und einem Verbrauchsfaktor von 0.5.
  • GPT 4 8k: Dieses Modell bietet hochwertige Antworten von Microsoft mit einer Kontextgröße von 4.096 Tokens und einem Verbrauchsfaktor von 1.
  • GPT 4 32k: Dieses Modell erlaubt mehr Wörter als GPT 4 8k, mit einer Kontextgröße von 32.768 Tokens und einem Verbrauchsfaktor von 2.
  • GPT 3.5 Turbo 4k: Ein schnelles und kostengünstiges Modell von Microsoft mit einer Kontextgröße von 4.096 Tokens und einem Verbrauchsfaktor von 0.04.
  • DALL·E 3: Dieses Modell von Microsoft bietet hochwertige Bildgenerierung mit einer Kontextgröße von 4.000 Tokens und einem Verbrauchsfaktor von 20-60 Credits pro Bild.

 

2. Wann sollten Sie welches Modell nutzen?

Verwenden Sie kostengünstig und effizient Modell für einfachere Aufgaben, wie das Beantworten von E-Mails oder das Schreiben von Reden und Arbeitszeugnissen, etc.

Verwenden Sie umfangreich und anspruchsvoll Modell für komplexe Aufgaben, wie das Erstellen von Konzepten, Verträgen, Geschäftsplänen oder wissenschaftlichen Zusammenfassungen, etc.

Unbedingt beachten:

Das Gegenüberstellen von Aufwand und Kosten ohne KI-Nutzung kann bei der Entscheidungsfindung helfen.

 

3. Beachten Sie Ihr Input- und Output-Volumen!

Ein großer Vorteil bei der Arbeit mit generativen Chatbots ist die Nutzung der Chat-Funktion. Hiermit können Informationen im Chatverlauf ständig erweitert und verbessert werden.

Beachten Sie jedoch, dass sowohl gesendete (Input) als auch empfangene Wörter (Output) zum Gesamtverbrauch der KI zählen. D.h. jedes Mal, wenn Sie eine Nachricht senden, wird der gesamte Chatverlauf gesendet. Daher kann der Gesamtverbrauch am KI-Volumen schneller ansteigen als erwartet.

Tipp:

Es ist sinnvoll, bei Änderungen im Chat-Kontext einen neuen Chat zu starten oder den Chat in kleinere sinnhafte Einheiten aufzuteilen.

 

4. Optimieren Sie Ihre Prompts!

Ihre Prompts sollten klar und spezifisch sein. Unscharfe Prompts können zu längeren und ungenaueren Antworten führen.

 

Beispielprompt:

Schreibe einen LinkedIn-Post aus der Perspektive eines Nutzers, limitiert auf 300 Zeichen mit passenden Hashtags und einigen Emojis. Der Text lautet: {{text}}

 

In diesem Prompt ist die Persona/Charakter (Nutzer), die Zeichenanzahl (300), Infos zu Hashtags und Emojis enthalten.

!!Je präziser der Prompt, desto besser die Ausgabe!!

 

Tipp:

Es kann hilfreich sein, offene Fragen über GPT3.5 zu stellen, um Inspirationen für bestimmte Themen zu erlangen. Diese können Sie dann mit GPT4 professionell bearbeiten lassen.

 

5.Testen Sie Ihre Prompts mit kleinen Textproben!

Lassen Sie zunächst kleine Textmengen durch Ihre Prompts verarbeiten und justieren Sie Ihre Prompts entsprechend den gewünschten Ergebnissen. Wenn die Proben zufriedenstellend sind, können Sie die Prompts auf großem Volumen einsetzen.

 

6. Verzichten Sie, wenn möglich, auf zusätzliche Erklärungen!

Oft schreibt nele.ai, abhängig vom gewählten KI-Modell, Erklärungen für ihre Antworten. Wenn das Thema Ihnen jedoch bereits vertraut ist und Sie keine Erklärungen benötigen, können Sie Ihren Prompt so formulieren, dass die Erläuterung übersprungen wird. Das verkürzt die Textmenge und spart Zeit beim Redigieren.

Fügen Sie einfach Ihrem Prompt die Phrase "keine weitere Erklärung erforderlich" hinzu.

Wir wünschen Ihnen viel Erfolg bei Ihrer Arbeit mit nele.ai.

Letzte Beiträge