温馨提示:本站仅提供公开网络链接索引服务,不存储、不篡改任何第三方内容,所有内容版权归原作者所有
AI智能索引来源:http://www.ibm.com/de-de/think/topics/latent-space
点击访问原文链接

Was ist latenter Raum? | IBM

Herzlich willkommen!ÜberblickArten von maschinellem LernenAlgorithmen des maschinellen LernensStatistisches maschinelles LernenLineare Algebra für maschinelles LernenQuantifizierung von UnsicherheitenAbwägung zwischen Verzerrung und VarianzÜberblickMerkmalsauswahlMerkmalsextraktionVektoreinbettungLatenter RaumHauptkomponentenanalyseLineare DiskriminanzanalyseUpsamplingDownsamplingSynthetische DatenDatenlecksÜberblickLineare RegressionLasso-RegressionRidge-RegressionZustandsraummodellZeitreiheAutoregressives ModellÜberblickEntscheidungsbäumeK-Nearest-Neighbors (KNNs)Naive BayesRandom ForestSupport-Vektor-MaschineLogistische RegressionÜberblickBoostingBaggingGradient BoostingGradient Boosting ClassifierÜberblickTransferlernenÜberblickÜberblickK-Means ClusteringHierarchisches ClusteringA-priori-AlgorithmusGaußsches MischungsmodellAnomalieerkennungÜberblickKollaborative FilterungInhaltsbasierte FilterungÜberblickVerstärkendes Lernen mit menschlichem FeedbackÜberblickÜberblickBackpropagationEncoder-Decoder-ModellRecurrent Neural NetworksConvolutional Neural NetworksÜberblickAufmerksamkeitsmechanismusGrouped Query AttentionPositionskodierungAutoencoderMamba-ModellGraph Neural NetworkÜberblickGeneratives ModellGenerative KI im Vergleich zu prädiktiver KIÜberblickLogischkeitsmodelleKleine SprachmodelleAnweisungsoptimierungLLM-ParameterLLM-TemperaturLLM-BenchmarksLLM-AnpassungDiffusionsmodelleVariational Autoencoder (VAE)Generative Adversarial Networks (GANs)ÜberblickVisionssprachmodelleTutorial: Erstellen Sie einen KI- StylistenTutorial: Multimodale KI-Abfragen mit LlamaTutorial: Multimodale KI-Abfragen mit PixtralTutorial: Automatische Podcast-Transkription mit GraniteTutorial: PPT-KI-Bildanalyse-AntwortsystemÜberblickGraphRAGTutorial: Erstellen Sie ein multimodales RAG-System mit Docling und GraniteTutorial: Evaluieren Sie die RAG-Pipline mit RagasTutorial: RAG-Chunking-StrategienTutorial: RAG mithilfe von Wissensdiagrammen grafisch darstellenTutorial: Inferenzskalierung zur Verbesserung multimodaler RAGÜberblickVibe-CodierungBesuchen Sie den Leitfaden zu KI-Agenten 2025ÜberblickVerlustfunktionTrainingsdatenModellparameterGradientenabstiegStochastischer GradientenabstiegHyperparameter-TuningLernrateÜberblickParameter-efficient Fine-Tuning(PEFT)LoRATutorial: Feinabstimmung des Granite-Modells mit LoRARegularisierungFoundation ModelsOverfittingUnderfittingFew-Shot-LearningZero-Shot-LearningKnowledge DistillationMeta-LearningData AugmentationCatastrophic ForgettingÜberblickScikit-learnXGboostPyTorchÜberblickKI-LebenszyklusKI-InferenzModellbereitstellungPipeline für maschinelles LernenDatenkennzeichnungModellrisikomanagementModelldriftAutoMLModellauswahlFöderiertes LernenVerteiltes maschinelles LernenKI-StackÜberblickNatural Language UnderstandingÜberblickStimmungsanalyseMaschinelle ÜbersetzungÜberblickInformationsabrufInformationsextraktionThemen-ModellierungLatente semantische AnalyseLatent Dirichlet AllocationNamed Entity RecognitionWorteinbettungenBag of WordsIntelligente SucheSpracherkennungStemming und LemmatizationTextzusammenfassungDialogorientierte KIKonversationsanalyseGenerierung natürlicher SpracheÜberblickBildklassifikationObjekterkennungInstanzsegmentierungSemantische SegmentierungOptische ZeichenerkennungBilderkennungVisuelle InspektionDave Bergmannmaschinellen LernenDeep Learninggenerativen KIReduzierung der DimensionalitätData ScienceVariational Autoencoder (VAEs)Generative Adversarial Networks (GANs)ObjekterkennungBildsegmentierungGroße Sprachmodelle (LLMsautoregressivenIBM GraniteIBM DatenschutzerklärungVektoreinbettungenAlle Episoden von Mixture of Experts ansehenMNISTEine Art von neuronaler Netzarchitektur, die speziell für die Reduzierung der Dimensionalität und die Komprimierung von Eingabedaten in einen latenten Raum entwickelt wurde, ist der Autoencoder.Erkennung von AnomalienHauptkomponentenanalyse (Principal Component Analysis, PCA),Variational Autoencoders (VAEs)VerlustfunktionDiffusionsmodelleT-verteilte stochastische NachbareinbettungUniform Manifold Approximation and Projection (UMAP)„Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks“Selbstbeobachtungs-MechanismusE-Book Data Science und MLOps für Data Leader Schließen Sie sich mit anderen Führungskräften zusammen, um die drei wesentlichen Säulen von MLOps und vertrauenswürdiger KI voranzutreiben: Vertrauen in Daten, Vertrauen in Modelle und Vertrauen in Prozesse. E-Book lesenWeiterbildung Zu mehr ML-Know-how Erfahren Sie mehr über grundlegende Konzepte und bauen Sie Ihre Fähigkeiten mit praktischen Übungen, Kursen, angeleiteten Projekten, Tests und mehr aus. ML-Kurse erkundenE-Book Nutzen Sie die Leistungsfähigkeit generativer KI und ML Erfahren Sie, wie Sie generative KI und maschinelles Lernen sicher in Ihr Unternehmen integrieren können. E-Book lesenTechsplainers-Podcast Maschinelles Lernen erklärt „Techsplainers“ von IBM erklärt die Grundlagen des maschinellen Lernens – von Schlüsselkonzepten bis hin zu realen Anwendungsfällen. Klare, kurze Folgen helfen Ihnen, die Grundlagen schnell zu erlernen. Jetzt anhörenLeitfaden KI zum Einsatz bringen: Mehr ROI dank generativer KI Möchten Sie eine bessere Rendite für Ihre KI-Investitionen erzielen? Erfahren Sie, wie die Skalierung generativer KI in Schlüsselbereichen Veränderungen vorantreibt, indem Sie Ihre besten Köpfe dabei unterstützen, innovative neue Lösungen zu entwickeln und bereitzustellen. Leitfaden lesenE-Book So entscheiden Sie sich für das richtige Foundation Model Erfahren Sie, wie Sie das für Ihren Anwendungsfall am besten geeignete KI Foundation Model auswählen. E-Book lesenKI-Modelle IBM Granite erkunden IBM Granite ist unsere Familie offener, leistungsfähiger und vertrauenswürdiger KI-Modelle, die auf Unternehmen zugeschnitten und für die Skalierung Ihrer KI-Anwendungen optimiert sind. Erkunden Sie die Optionen zu Sprache, Code, Zeitreihen und Guardrails. Granite kennenlernenLeitfaden Wie Sie im neuen KI-Zeitalter vertrauensvoll und zuversichtlich in eine erfolgreiche Zukunft blicken Erfahren Sie mehr über die drei entscheidenden Elemente einer starken KI-Strategie: die Schaffung eines Wettbewerbsvorteils, die Skalierung von KI im gesamten Unternehmen und die Förderung vertrauenswürdiger KI. Leitfaden lesenEntdecken sie watsonx.aiErkunden Sie KI-LösungenKI-Services entdeckenwatsonx.ai erkundenLive-Demo buchen"Large Language Models Are Latent Variable Models: Explaining and Finding Good Demonstrations for In-Context Learning,"„A Latent Space Theory for Emergent Abilities in Large Language Models“,

智能索引记录