2. Webinar – 6. Juli 2022 von 16:00 bis 18:20 Uhr
Themen: Cloud & Software-Architektur, Künstliche Intelligenz (KI), Untertitel & Metadaten
Das zweite Webinar der DeafIT Akademie findet am Mittwoch, den 6. Juli 2022 von 16:00 Uhr bis 18:40 Uhr online auf der DeafIT Academy Webseite statt. In diesem Webinar werden drei Vorträge zu den Themen Cloud & Software-Architektur, Künstliche Intelligenz (KI), Untertitel, Metadaten der ausgefallenen DeafIT Konferenz Online 2022 im März nachgeholt. Du hast während des Webinars die Möglichkeit, Fragen zum Vortrag an die Speaker zu stellen. Das Webinar ist in Deutscher Gebärdensprache (DGS), deutscher oder englischer Lautsprache sowie mit deutschem und englischem Untertitel versehen. Hast Du Interesse an einer Teilnahme an diesem Webinar, dann hole Dir hier ein Ticket!
Das sind die Speaker & Vorträge:
CQRS 3.0 – Ein Konzept geht mit der Zeit
Im Laufe der Jahre und dem damit verbundenen Einsatz von CQRS in diversen Projekten, ergab sich die Erkenntnis, dass CQRS nicht das eine Pattern ist, sondern in unterschiedlichen Ausprägungen, je nach Anwendungsfall, erscheint.
CQRS 3.0 stellt hier die Form in einer Serverless Welt dar. Das bedeutet, das konsequente Trennen der Applikationsbelange in Lesen und Schreiben in einer Serverless Architektur. Es stellt das bisherige technische Modell auf den Kopf. Es ist einfacher, übersichtlicher, leichter umzusetzen und benötigt keinerlei Framework.
In dieser Session zeige ich, mit Hilfe der Microsoft Azure Serverless Komponenten, C# und vielleicht etwas JavaScript, wie CQRS 3.0 in der Cloud umgesetzt wird.
Cloud & Software-Architektur
Janek Fellien, hörend, Deutsche Lautsprache
medialesson GmbH, Cloud Software Architect & Consultant, Berlin (DEU)
Automatisierte Sprecher*innen-Identifizierung für Untertitel
Untertitel für audiovisuelle Medien werden häufig ohne Sprecher*innen-Identifizierung produziert. Dabei ist diese Information eine wichtige Voraussetzung für SDH (Subtitles for the Deaf and hard of hearing). Der Vortrag stellt sich der Frage, welche Wege KI-basierte Technologien bieten könnten, fehlende Sprecher*innen-Informationen zu liefern. Außerdem wird darauf eingegangen, wie die Annotation von Sprecher*innen-Metadaten für unterschiedliche Strategien der Sprecher*innen-Identifizierung genutzt werden könnte.
Künstliche Intelligenz (KI), Untertitel, Metadaten
Andreas Tai, Schwerhörig, Deutsche Lautsprache
IT Consultant für Barrierefreie Medientechnologien, Andreas Tai, München (DEU)
Realtime Marketing Attribution mit AI und Google Cloud
In dieser Session zeigen wir, wie mit Hilfe von Vertex AI (Google Cloud) eine Realtime Marketing Attribution aufgebaut werden kann.
Künstliche Intelligenz (KI)
Marcus Stade & Patrick Mohr, hörend, Deutsche Lautsprache
Analytik-Leitung, Mitgründer & Gesellschafter, Mitgründer, Mohrstade, München (DEU)
Das Programm am Mittwoch, den 6. Juli 2022:
16:00 – 16.15 Uhr: Begrüßung
16:15 – 16:55 Uhr: Cloud & Software-Architektur von Janek Fellin „CQRS 3.0 – Ein Konzept geht mit der Zeit“
16:55 – 17:00 Uhr: Pause
17:00 – 17:35 Uhr: Künstliche Intelligenz (KI), Untertitel, Metadaten von Andreas Tai „Automatisierte Sprecher*innen-Identifizierung für Untertitel“
17:35 – 17:40 Uhr: Pause
17:40 – 18:10 Uhr: Künstliche Intelligenz (KI) von Marcus Stade & Patrick Mohr „Realtime Marketing Attribution mit AI und Google Cloud“
18:10 – 18:20 Uhr: Abschluss