Texte generieren mit GPT-3

Maschinelle Übersetzung gibt es schon sehr lange, erste Pionierversuche gab es bereits in den 1930ern. Sehr große Verbesserungen brachte der Einsatz von Deep Learning und künstlichen neuronalen Netzen. Sie ermöglichen Computersystemen, kontextbezogene Verbindungen zwischen Wörtern und Phrasen herzustellen. Das "GPT" bei GPT-3 steht für Generative Pre-trained Transformer. Und den gibt es jetzt schon in der dritten Ausbaustufe.  Der Transformer bekommt einen Input, wertet ihn mit Hilfe von Deep Learning aus und generiert neuen Output. GPT, egal ob 2 oder 3, gehört damit zum großen Feld der künstlichen Intelligenz.Wir sprechen mit Carsten über seine Erfahrungen und Erlebnisse mit GPT-2 und GPT-3.Link zum Fundstück der WocheArtikel OpenAIs GPT-3GPT-2 ausprobierenOPITZ CONSULTING ■■■ Digitale Service ManufakturDisclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.Nina & Frank laden sich Gäste ein und sprechen mit ihnen über aktuelle Entwicklungen im Umfeld der Künstlichen Intelligenz.

Om Podcasten

Künstliche Intelligenz ist kein großer Mythos mehr. Viele Projekte setzen schon auf den Einsatz von KI. Doch was ist alles KI? Und wofür ist sie gut? Um das herauszufinden laden wir uns wöchentlich Gäste ein, um über Anwendungsfälle zu Diskutieren. Wir, Nina und Frank, sind keine KI-Developer aber schauen genau deshalb hinter die Kulissen. Im Podcast wollen wir verstehen, wo und wie uns KI helfen kann. Wir streifen die technischen Details, werden jedoch trotzdem genau auf die Hintergründe von Künstlicher Intelligenz und deren Auswirkung auf den Menschen eingehen.