Confident AI Anleitung
WebsiteOther
Confident AI ist eine Open-Source-Bewertungsinfrastruktur für LLMs, die Entwicklern ermöglicht, KI-Modelle problemlos zu unit testen und zu benchmarken.
Mehr anzeigenWie man Confident AI verwendet
DeepEval installieren: Führen Sie 'pip install -U deepeval' aus, um die DeepEval-Bibliothek zu installieren
Erforderliche Module importieren: Importieren Sie assert_test, metrics und LLMTestCase aus deepeval
Einen Testfall erstellen: Erstellen Sie ein LLMTestCase-Objekt mit Eingabe und actual_output
Bewertungsmetrik definieren: Erstellen Sie ein Metrikobjekt, z.B. HallucinationMetric, mit den gewünschten Parametern
Assertion ausführen: Verwenden Sie assert_test(), um den Testfall gegen die Metrik zu bewerten
Tests ausführen: Führen Sie 'deepeval test run test_file.py' aus, um Tests auszuführen
Ergebnisse anzeigen: Überprüfen Sie die Testergebnisse in der Konsolenausgabe
In die Confident AI-Plattform protokollieren: Verwenden Sie den @deepeval.log_hyperparameters-Dekorator, um Ergebnisse in Confident AI zu protokollieren
Ergebnisse analysieren: Melden Sie sich bei der Confident AI-Plattform an, um detaillierte Analysen und Einblicke zu erhalten
Confident AI FAQs
Confident AI ist ein Unternehmen, das eine Open-Source-Bewertungsinfrastruktur für große Sprachmodelle (LLMs) bereitstellt. Sie bieten DeepEval an, ein Tool, mit dem Entwickler LLMs in weniger als 10 Codezeilen testen können.
Mehr anzeigen