温馨提示:本站仅提供公开网络链接索引服务,不存储、不篡改任何第三方内容,所有内容版权归原作者所有
AI智能索引来源:http://www.ibm.com/de-de/topics/knowledge-distillation
点击访问原文链接

Was ist Wissensdestillation? | IBM

Herzlich willkommen!ÜberblickArten von maschinellem LernenAlgorithmen des maschinellen LernensStatistisches maschinelles LernenLineare Algebra für maschinelles LernenQuantifizierung von UnsicherheitenAbwägung zwischen Verzerrung und VarianzÜberblickMerkmalsauswahlMerkmalsextraktionVektoreinbettungLatenter RaumHauptkomponentenanalyseLineare DiskriminanzanalyseUpsamplingDownsamplingSynthetische DatenDatenlecksÜberblickLineare RegressionLasso-RegressionRidge-RegressionZustandsraummodellZeitreiheAutoregressives ModellÜberblickEntscheidungsbäumeK-Nearest-Neighbors (KNNs)Naive BayesRandom ForestSupport-Vektor-MaschineLogistische RegressionÜberblickBoostingBaggingGradient BoostingGradient Boosting ClassifierÜberblickTransferlernenÜberblickÜberblickK-Means ClusteringHierarchisches ClusteringA-priori-AlgorithmusGaußsches MischungsmodellAnomalieerkennungÜberblickKollaborative FilterungInhaltsbasierte FilterungÜberblickVerstärkendes Lernen mit menschlichem FeedbackÜberblickÜberblickBackpropagationEncoder-Decoder-ModellRecurrent Neural NetworksConvolutional Neural NetworksÜberblickAufmerksamkeitsmechanismusGrouped Query AttentionPositionskodierungAutoencoderMamba-ModellGraph Neural NetworkÜberblickGeneratives ModellGenerative KI im Vergleich zu prädiktiver KIÜberblickLogischkeitsmodelleKleine SprachmodelleAnweisungsoptimierungLLM-ParameterLLM-TemperaturLLM-BenchmarksLLM-AnpassungDiffusionsmodelleVariational Autoencoder (VAE)Generative Adversarial Networks (GANs)ÜberblickVisionssprachmodelleTutorial: Erstellen Sie einen KI- StylistenTutorial: Multimodale KI-Abfragen mit LlamaTutorial: Multimodale KI-Abfragen mit PixtralTutorial: Automatische Podcast-Transkription mit GraniteTutorial: PPT-KI-Bildanalyse-AntwortsystemÜberblickGraphRAGTutorial: Erstellen Sie ein multimodales RAG-System mit Docling und GraniteTutorial: Evaluieren Sie die RAG-Pipline mit RagasTutorial: RAG-Chunking-StrategienTutorial: RAG mithilfe von Wissensdiagrammen grafisch darstellenTutorial: Inferenzskalierung zur Verbesserung multimodaler RAGÜberblickVibe-CodierungBesuchen Sie den Leitfaden zu KI-Agenten 2025ÜberblickVerlustfunktionTrainingsdatenModellparameterGradientenabstiegStochastischer GradientenabstiegHyperparameter-TuningLernrateÜberblickParameter-efficient Fine-Tuning(PEFT)LoRATutorial: Feinabstimmung des Granite-Modells mit LoRARegularisierungFoundation ModelsOverfittingUnderfittingFew-Shot-LearningZero-Shot-LearningKnowledge DistillationMeta-LearningData AugmentationCatastrophic ForgettingÜberblickScikit-learnXGboostPyTorchÜberblickKI-LebenszyklusKI-InferenzModellbereitstellungPipeline für maschinelles LernenDatenkennzeichnungModellrisikomanagementModelldriftAutoMLModellauswahlFöderiertes LernenVerteiltes maschinelles LernenKI-StackÜberblickNatural Language UnderstandingÜberblickStimmungsanalyseMaschinelle ÜbersetzungÜberblickInformationsabrufInformationsextraktionThemen-ModellierungLatente semantische AnalyseLatent Dirichlet AllocationNamed Entity RecognitionWorteinbettungenBag of WordsIntelligente SucheSpracherkennungStemming und LemmatizationTextzusammenfassungDialogorientierte KIKonversationsanalyseGenerierung natürlicher SpracheÜberblickBildklassifikationObjekterkennungInstanzsegmentierungSemantische SegmentierungOptische ZeichenerkennungBilderkennungVisuelle InspektionDave Bergmannmaschinellen LernensDeep Learningkünstliches neuronales NetzwerkModellparameterngenerativen KIEnsemble-ModellDatensatzüberwachtes LernenVerarbeitung natürlicher Sprache (NLP)SpracherkennungObjekterkennunggroße Sprachmodelle (LLM)Open-Source-ModelleIBM DatenschutzerklärungModells für künstliche IntelligenzTrainingsdatenGPTLlamaAusrichtung auf menschliche Vorlieben und WerteerklärbarZur Episode wechselnAbstimmung von AnweisungenCoT-Prompts (Chain-of-Thought, also Denkketten)überwachtenselbstüberwachtenden GradientenabstiegSoftmax-FunktionTemperaturBildsegmentierungsemantische SegmentierungsmodelleL2-RegularisierungsverlustReinforcement Learning from Human Feedback (RLHF),Leitfaden ROI realisieren: Ein praktischer Leitfaden für agentische KI Erfahren Sie, wie Sie agentische KI skalieren, um einen messbaren ROI in Ihrem gesamten Unternehmen zu erzielen. Dieses Playbook beschreibt die größten Hindernisse, die einschränken, wie man den ROI effektiv misst, und bietet ein praktisches Framework für eine erfolgreiche, unternehmensweite Einführung. Holen Sie sich den LeitfadenIBV-Bericht Enterprise 2030: Entwickelt für kontinuierliche Innovation. Entdecken Sie unsere fünf Prognosen über die erfolgreichsten Unternehmen im Jahr 2030 und die Schritte, die Führungskräfte unternehmen können, um sich KI-Vorteile zu verschaffen. Lesen Sie den BerichtWeiterbildung Bringen Sie Ihre KI-Fähigkeiten auf die nächste Stufe Erfahren Sie mehr über grundlegende Konzepte und bauen Sie Ihre Fähigkeiten mit praktischen Übungen, Kursen, angeleiteten Projekten, Tests und mehr aus. Generative KI kennenlernenLeitfaden KI zum Einsatz bringen: Mehr ROI dank generativer KI Möchten Sie eine bessere Rendite für Ihre KI-Investitionen erzielen? Erfahren Sie, wie die Skalierung generativer KI in Schlüsselbereichen Veränderungen vorantreibt, indem Sie Ihre besten Köpfe dabei unterstützen, innovative neue Lösungen zu entwickeln und bereitzustellen. Leitfaden lesenBericht Von KI-Projekten zu Gewinnen: Wie agentische KI finanzielle Erträge sichern kann Erfahren Sie, wie Unternehmen von der KI-Einführung in verteilten Pilotprojekten zu ihrer Nutzung übergehen, um die Transformation im Kern voranzutreiben. Lesen Sie den BerichtTechsplainers-Podcast Generative KI erklärt „Techsplainers“ von IBM schlüsselt die Grundlagen der generativen KI auf, von Schlüsselkonzepten bis hin zu realen Anwendungsfällen. Klare, kurze Episoden helfen Ihnen, die Grundlagen schnell zu erlernen. Jetzt anhörenLeitfaden Der CEO-Leitfaden zu generativer KI Erfahren Sie, wie CEOs den Wert, den generative KI schaffen kann, gegen die erforderlichen Investitionen und die damit verbundenen Risiken abwägen können. Leitfaden lesenWeiterbildung watsonx® Entwickler-Hub Entdecken Sie wichtige Tools und Ressourcen, um Ihr nächstes Projekt zu beschleunigen. Legen Sie los und entdecken Sie die gesamte Palette der unterstützten Modelle von IBM. Erste SchritteBericht Die Wahrheit über erfolgreiche generative KI Entdecken Sie die Vorteile von KI-Plattformen, die eine Anpassung des Basismodells durch Technologie, Prozesse und Best Practices ermöglichen, damit Sie den Lebenszyklus der KI einfach operationalisieren können. Lesen Sie den BerichtKI-Modelle IBM Granite erkunden IBM Granite ist unsere Familie offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und für die Skalierung Ihrer KI-Anwendungen optimiert sind. Erkunden Sie die Modelle zu Sprache, Code, Zeitreihen und Guardrails. Granite kennenlernenE-Book So entscheiden Sie sich für das richtige Foundation Model Erfahren Sie, wie Sie das für Ihren Anwendungsfall am besten geeignete KI Foundation Model auswählen. E-Book lesenLeitfaden Wie Sie im neuen KI-Zeitalter vertrauensvoll und zuversichtlich in eine erfolgreiche Zukunft blicken Erfahren Sie mehr über die drei entscheidenden Elemente einer starken KI-Strategie: die Schaffung eines Wettbewerbsvorteils, die Skalierung von KI im gesamten Unternehmen und die Förderung vertrauenswürdiger KI. Leitfaden lesenEntdecken sie watsonx.aiErkunden Sie KI-LösungenKI-Services entdeckenwatsonx.ai erkundenBuchen Sie eine Live-Demo„Model compression“„Distilling the Knowledge in a Neural Network“,„A Survey on Knowledge Distillation of Large Language Models“,„Improving drug-target affinity prediction via feature fusion and knowledge distillation“„A three layer neural network can represent any multivariate function“,„ARTHuS: Adaptive Real-Time Human Segmentation in Sports Through Online Distillation“,„Self-Distillation: Towards Efficient and Compact Neural Networks“,„Multilingual Neural Machine Translation with Knowledge Distillation“,„Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation“,„Orca: Progressive Learning from Complex Explanation Traces of GPT-4“,„RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback“,

智能索引记录