BaCAI Lectures

In den BaCAI Lectures pr?sentieren exzellente Referentinnen und Referenten aus verschiedenen Themengebieten der Künstlichen Intelligenz ihre Forschung. Die Zielgruppe sind durch den Fokus auf Forschung und der Hauptsprache Englisch haupts?chlich Universit?tsangeh?rige, die Vorlesungen sind aber offen für alle Interessierten.

Veranstaltungsdetails (sofern nicht anders angegeben):

A cautionary tale of health AI development and deployment

In diesem Vortrag geht es um die verschiedenen Herausforderungen, die sich bei der Entwicklung und dem Einsatz von KI-Algorithmen in gro?em Ma?stab in verschiedenen Regionen ergeben. Insbesondere die generative KI ist vielversprechend, um Zugangsbarrieren abzubauen und die Qualit?t der Gesundheitsversorgung auf der ganzen Welt zu verbessern. Es ist jedoch wichtiger denn je, sicherzustellen, dass diese Algorithmen ordnungsgem?? validiert und getestet werden und genügend Investitionen get?tigt werden, um zu gew?hrleisten, dass ihre Vorteile gleichm??ig über verschiedene Bev?lkerungsgruppen verteilt werden.

Zu Ira Ktena, PhD

Ira Ktena ist Wissenschaftliche Mitarbeiterin bei Google DeepMind und arbeitet an der Forschung zum sicheren und zuverl?ssigen Maschinellen Lernen (ML). Zuvor war Sie leitende Forscherin für ML im Cortex Applied Research Team bei Twitter UK, wo sie sich auf Echtzeit-Personalisierung konzentrierte, w?hrend sie an der Schnittstelle von Empfehlungssystemen und algorithmischer Transparenz forschte. ?ber deren Forschungen zur algorithmischen Verst?rkung politischer Inhalte auf Twitter berichteten unter anderem der Economist und die BBC.

Unsicherheitquantifizierung beim Maschinellen Lernen: Vom Aleatorischen zum Epistemischen

Aufgrund der stetig wachsenden Bedeutung des Maschinellen Lernens (ML) für praktische Anwendungen, von denen viele mit Sicherheitsanforderungen einhergehen, hat der Begriff der Unsicherheit in der Forschung zu ML in der jüngsten Vergangenheit zunehmend an Bedeutung gewonnen. In diesem Vortrag werden Fragen zur Darstellung und zum ad?quaten Umgang mit (pr?diktiver) Unsicherheit im (überwachten) ML behandelt. Ein besonderer Schwerpunkt liegt dabei auf der Unterscheidung zwischen zwei wichtigen Arten von Unsicherheit, die oft als aleatorisch und epistemisch bezeichnet werden, und auf der Frage, wie diese Unsicherheiten in Form von geeigneten numerischen Ma?en quantifiziert werden k?nnen. Grob gesagt ist die aleatorische Unsicherheit auf die Zuf?lligkeit des Datenerzeugungsprozesses zurückzuführen, w?hrend die epistemische Unsicherheit durch die Unkenntnis des Lernenden über das wahre zugrunde liegende Modell verursacht wird.

Zu Prof. Dr. Eyke Hüllermeier

Eyke Hüllermeier ist ordentlicher Professor am Institut für Informatik der LMU München, wo er den Lehrstuhl für Künstliche Intelligenz und Maschinelles Lernen innehat. Er studierte Mathematik und Wirtschaftsinformatik, promovierte 1997 in Informatik an der Universit?t Paderborn und habilitierte sich 2002. Bevor er an die LMU kam, hatte er Professuren an mehreren anderen deutschen Universit?ten (Dortmund, Magdeburg, Marburg, Paderborn) inne und verbrachte zwei Jahre als Marie-Curie-Stipendiat am IRIT in Toulouse (Frankreich).

Seine Forschungsinteressen konzentrieren sich auf Methoden und theoretische Grundlagen der Künstlichen Intelligenz, mit einem besonderen Schwerpunkt auf Maschinellem Lernen, Pr?ferenzmodellierung und Argumentation unter Unsicherheit. Er hat mehr als 400 Artikel zu verwandten Themen in hochrangigen Fachzeitschriften und auf gro?en internationalen Konferenzen ver?ffentlicht, und mehrere seiner Beitr?ge wurden mit wissenschaftlichen Preisen ausgezeichnet. Professor Hüllermeier ist Chefredakteur von "Data Mining and Knowledge Discovery", einer führenden Fachzeitschrift im Bereich der Künstlichen Intelligenz, und geh?rt den Redaktionsausschüssen mehrerer anderer Fachzeitschriften für Künstliche Intelligenz und Maschinelles Lernen an. Er ist derzeit Pr?sident der European Association for Data Science (EuADS), Mitglied des Strategy Board des Munich Center for Machine Learning (MCML) und Mitglied des Steering Committee der Konrad Zuse School of Excellence in Reliable AI (relAI).

Multi-Agenten-Pfadplanung auf gerichteten Graphen

Multi-Agent-Pfadplanung (MAPF) ist das Problem der Entscheidung über die Existenz oder der Generierung eines kollisionsfreien Bewegungsplans für eine Gruppe von Agenten, die sich auf einem Graphen bewegen. Aufgrund seiner Relevanz für Themen wie u.a. Intralogistik, Luftverkehrskoordination und Videospiele hat dieses Problem in letzter Zeit viel Interesse gefunden.

Nach einem ?berblick über theoretische Ergebnisse und algorithmische Ans?tze, die verwendet werden um das Problem zu l?sen, werde ich mich auf die Variante konzentrieren, bei der der Graph gerichtet ist. W?hrend die nicht-optimierende Variante der Multi-Agenten-Pfadplanung auf ungerichteten Graphen seit fast vierzig Jahren als Polynomialzeit-Problem bekannt ist, war ein ?hnliches Ergebnis für gerichtete Graphen lange unbekannt. Erst 2023 wurde gezeigt, dass dieses Problem NP-vollst?ndig ist. Für stark zusammenh?ngende gerichtete Graphen ist das Problem jedoch polynomiell. Und beide Ergebnisse gelten auch dann, wenn man synchrone Rotationen auf voll besetzten Zyklen zul?sst.

?ber Prof. Dr. Bernhard Nebel

Bernhard Nebel studierte an der Universit?t Hamburg und schloss sein Studium als Dipl.-Inform. 1980 ab. 1989 promovierte er zum Dr. rer. nat. an der Universit?t des Saarlandes. Zwischen 1982 und 1993 arbeitete er in verschiedenen KI-Projekten an der Universit?t Hamburg, der TU Berlin, ISI/USC, IBM Deutschland, und am Deutschen Forschungszentrum für KI (DFKI). Von 1993 bis 1996 war er C3-Professor an der Universit?t Ulm. Von 1996 bis 2022 war er C4/W3-Professor an der Albert-Ludwigs-Universit?t Freiburg und leitet die Arbeitsgruppe Grundlagen der Künstlichen Intelligenz. Seit April 2022 ist er im Ruhestand.

Bernhard Nebel war Mitglied des SFB TR/14 Automatic Verification and Analysis of Complex Systems (AVACS) (2004-2015), und war Sprecher der Freiburger Gruppe im SFB TR/8 Spatial Cognition (2003-2014).

Neben anderen T?tigkeiten war er Ko-Programmkomiteevorsitzender der dritten International Conference on Principles of Knowledge Representation and Reasoning (KR'92), Ko-Programmkomiteevorsitzender der 18. German Annual Conference on AI (KI'94), Organisator der 21. German Annual Conference on Artificial Intelligence (KI'97), Programmkomiteevorsitzender der 17. International Joint Conference on Artificial Intelligence (IJCAI'01) und Ko-Konferenzorganisator der 18. International Conference on Automated Planning and Scheduling (ICAPS'08). 2001 wurde er zum EurAI Fellow ernannt. Seit 2009 ist er gew?hltes Mitglied der deutschen Akademie der Naturforscher Leopoldina. 2010 wurde er zum AAAI Fellow ernannt, und seit 2011 ist er Mitglied der Academia Europaea. 2019 wurde er von der GI als einer der 10 pr?genden K?pfe der deutschen KI-Geschichte ausgezeichnet und seit 2022 ist er ein ACM Fellow. Au?erdem wurde er 2022 mit dem Donald E. Walker Distinguished Service Award ausgezeichnet.

Bernhard Nebel ist (Ko-)Autor und (Ko-)Editor von 14 Büchern und Konferenz-Proceeding-B?nden und (Ko-)Autor von mehr als 200 begutachteten Artikeln in wissenschaftlichen Zeitschriften, Büchern und Konferenz-Proceedings.

Vergangene Termine der BaCAI Ringvorlesung

Warum müssen sich LLMs Sorgen machen?

Vorlesungssprache: Englisch

Die Achillesferse der Forschung im Bereich der natürlichen Sprachverarbeitung war lange Zeit Rauschen in Datens?tzen, insbesondere ungenaues Labelling. Obwohl es einen Paradigmenwechsel von kleinen Expertenmodellen, die auf gelabelten Datens?tzen trainiert werden, zu gro?en Sprachmodellen (LLMs) gegeben hat, die auf weitgehend unmarkierten Daten trainiert werden und eine Vielzahl von Aufgaben l?sen k?nnen, bleiben die Probleme der ?bersch?tzung und Verzerrungen bestehen. In diesem Vortrag werde ich einige Methoden zur Unsicherheitsabsch?tzung in aufgabenorientierten Dialogen vorstellen und diese zur automatischen Korrektur der Beschriftungen in den zugrunde liegenden Datens?tzen nutzen. Ich werde Hypothesen aufstellen, wie dies die Tür zur L?sung verwandter Probleme in LLMs ?ffnen k?nnte.

?ber Prof. Dr. Milica Ga?i?:

Milica Ga?i? ist Professorin der Gruppe Dialogsystems and Machine Learning an der Heinrich-Heine-Universit?t Düsseldorf. Ihre Forschung konzentriert sich auf grundlegende Fragen der Dialogmodellierung zwischen Mensch und Computer und liegt im Schnittpunkt von natürlicher Sprachverarbeitung und maschinellem Lernen. Vor ihrer jetzigen Position war sie Dozentin für Spoken Dialogue Systems am Department of Engineering der Universit?t Cambridge, wo sie die Dialogue Systems Group leitete. Zuvor war sie Research Associate und Senior Research Associate in der gleichen Gruppe und Research Fellow am Murray Edwards College. Sie schloss ihre Promotion unter der Leitung von Professor Steve Young ab. Das Thema ihrer Dissertation war Statistical Dialogue Modelling, für die sie einen EPSRC PhD Plus Award erhielt. Sie hat einen MPhil-Abschluss in Computer Speech, Text and Internet Technology von der University of Cambridge und ein Diplom (BSc. equivalent) in Mathematik und Informatik von der Universit?t Belgrad. Sie ist Mitglied der ACL, Mitglied von ELLIS und Seniormitglied von IEEE sowie Mitglied des internationalen wissenschaftlichen Beirats des DFKI.

Probabilistische und Deep Learning-Techniken für Roboternavigation und automatisiertes Fahren

Die F?higkeit, Umgebungen robust wahrzunehmen und Aktionen auszuführen ist das ultimative Ziel bei der Entwicklung von autonomen Robotern und automatisiertem Fahren. Die gr??te Herausforderung besteht darin, dass keine Sensoren oder Aktoren perfekt sind. Roboter und Autos müssen daher in der Lage sein, mit der daraus resultierenden Unsicherheit angemessen umzugehen. In diesem Vortrag werde ich den probabilistischen Ansatz in der Robotik vorstellen, der eine strenge statistische Methodik im Umgang mit Zustandssch?tzungsproblemen bietet. Darüber hinaus werde ich er?rtern, wie dieser Ansatz mit modernster Technologie des Maschinellen Lernens kombiniert werden kann, um mit komplexen und sich ver?ndernden realen Umgebungen umzugehen.

Zu Prof. Dr. Wolfram Burgard

Prof. Dr. Wolfram Burgard ist ein angesehener Professor für Robotik und Künstliche Intelligenz an der Technischen Universit?t Nürnberg, wo er auch den Gründungslehrstuhl der Fakult?t für Ingenieurwissenschaften innehat. Zuvor war er von 1999 bis 2021 Professor für Informatik an der Albert-Ludwigs-Universit?t Freiburg, wo er das renommierte Forschungslabor für Autonome Intelligente Systeme aufbaute. Seine Fachgebiete sind Künstliche Intelligenz und mobile Roboter, wobei er sich auf die Entwicklung von robusten und adaptiven Verfahren zur Zustandssch?tzung und -steuerung konzentriert. Zu Wolfram Burgards Erfolgen geh?rt der Einsatz des ersten interaktiven mobilen Führungsroboters Rhino im Deutschen Museum Bonn im Jahr 1997. Au?erdem entwickelten er und sein Team 2008 einen bahnbrechenden Ansatz, der es einem Auto erm?glichte, autonom durch ein komplexes Parkhaus zu navigieren und selbst einzuparken. Im Jahr 2012 entwickelten er und sein Team den Roboter Obelix, der sich autonom wie ein Fu?g?nger vom Campus der Technischen Fakult?t in die Freiburger Innenstadt bewegte. Wolfram Burgard hat über 350 Beitr?ge und Artikel auf Konferenzen und in Fachzeitschriften für Robotik und Künstliche Intelligenz ver?ffentlicht. Au?erdem ist er Mitautor der beiden Bücher "Principles of Robot Motion - Theory, Algorithms, and Implementations" und "Probabilistic Robotics". Im Jahr 2009 wurde er mit dem Gottfried Wilhelm Leibniz-Preis ausgezeichnet, dem renommiertesten Forschungspreis in Deutschland. Er ist Mitglied der Heidelberger Akademie der Wissenschaften und der Nationalen Akademie der Wissenschaften Leopoldina.

Besonderheiten und Herausforderungen für Maschinelles Lernen in der intraoperativen Bildgebung

Auf dem Weg zu Pr?zision und Intelligenz in dynamischen Umgebungen mit hoher Intensit?t

Vortrag auf Englisch

In den letzten zehn Jahren haben die rasanten Fortschritte im Bereich des Maschinellen Lernens (ML) verschiedene Bereiche revolutioniert und unser Leben erheblich beeinflusst. In diesem Vortrag werden wir in den Bereich der medizinischen Anwendungen eintauchen und die Herausforderungen und M?glichkeiten untersuchen, die mit der Integration dieser Spitzentechnologien in computergestützte Interventionen verbunden sind. Unser Hauptaugenmerk liegt dabei auf der F?rderung der Akzeptanz und des Vertrauens in ML und Robotikl?sungen im medizinischen Bereich, was oft den Weg über Intelligence Amplification (IA, "Intelligenz-Verst?rkung") erfordert. Mit Augmented Reality (AR) k?nnen wir IA nutzen, um die menschliche Intelligenz und Expertise zu erweitern, was letztlich den Weg für die nahtlose Integration von Künstlicher Intelligenz (KI) und Robotik in klinischen L?sungen ebnet.

Ausgehend von einigen bahnbrechenden Forschungsarbeiten, die am Lehrstuhl für Computer Aided Medical Procedures (computergestützte medizinische Verfahren) an der TU München und der Johns Hopkins University durchgeführt wurden, werde ich eine Reihe neuartiger Techniken vorstellen, die für die besonderen Anforderungen medizinischer Anwendungen entwickelt wurden. Insbesondere werden wir ihre praktischen Implementierungen in verschiedenen Bereichen untersuchen, darunter die robotergestützte Ultraschallbildgebung, die multimodale Datenanalyse und semantische Szenegraphen für die ganzheitliche Modellierung des chirurgischen Bereichs. Darüber hinaus werde ich überzeugende Beispiele dafür vorstellen, wie AR-L?sungen als Katalysator für die Einführung von KI in der computergestützten Chirurgie dienen k?nnen. Indem wir uns die Macht von IA zunutze machen, k?nnen wir das volle Potenzial von KI-Technologien freisetzen, die Akzeptanz f?rdern und die Zukunft computergestützter Eingriffe vorantreiben. Begleiten Sie mich auf dieser aufschlussreichen Reise durch die komplizierten ?berschneidungen von Maschinellem Lernen, medizinischem Fortschritt und dem Weg von der "Intelligenz-Verst?rkung" zur Künstlichen Intelligenz im Gesundheitswesen.

Zu Prof. Dr. Nassir Navab

Prof. Dr. Nassir Navab ist ordentlicher Professor und Direktor des Lehrstuhls für Computer Aided Medical Procedures (CAMP) an der Technischen Universit?t München (TUM) und au?erplanm??iger Professor an der Johns Hopkins Universit?t. Er ist auch Leiter der zweimal j?hrlich stattfindenden Medical Augmented Reality Vorlesungsreihe an der Balgrist Klinik in Zürich. Er ist Mitglied der Academia Europaea und erhielt 2021 den prestigetr?chtigen MICCAI Enduring Impact Award und 2015 den IEEE ISMAR 10 Years Lasting Impact Award. Im Jahr 2001, als er als angesehener technischer Mitarbeiter bei Siemens Corporate Research (SCR) in Princeton t?tig war, erhielt er die renommierte Siemens Inventor of the Year Auszeichnung für seine Arbeit auf dem Gebiet der Interventionellen Bildgebung. Au?erdem erhielt er den SMIT Technology Innovation Award im Jahr 2010 und wird im Jahr 2024 Medical AR Pioneer in der AWE XR Hall of Fame. Seine Studierenden haben viele Auszeichnungen für ihre Arbeiten erhalten, darunter 15 Auszeichnungen bei den renommierten MICCAI-Veranstaltungen, 5 bei IPCAI, 2 bei IPMI und 4 bei IEEE ISMAR. Er ist Fellow der MICCAI Society und war im Vorstand von 2007 bis 2012 und von 2014 bis 2017. Er ist au?erdem ein IEEE Fellow und Fellow der Asia-Pacific Artificial Intelligence Association (AAIA) und einer der Gründer des IEEE Symposium on Mixed and Augmented Reality (ISMAR) und ist seit 2001 Mitglied des Lenkungsausschusses seit 2001. Er ist ein Area Chair für ECCV 2024. Er ist Autor von Hunderten von wissenschaftlichen Arbeiten und über 100 erteilten US- und internationalen Patenten. Im April 2024 wurden seine Arbeiten über 76.600 Mal zitiert und haben einen h-Index von 117.

Wie man Künstliche Intelligenz menschlicher machen kann

Die Beziehung zwischen Menschen und Maschine, insbesondere im Kontext Künstlicher Intelligenz (KI), ist von Hoffnungen, Bedenken und moralischen Fragen gepr?gt. Auf der einen Seite bieten Fortschritte in der KI gro?e Hoffnungen: Sie verspricht L?sungen für komplexe Probleme, verbesserte Gesundheitsversorgung, effizientere Arbeitsabl?ufe und vieles mehr. Doch gleichzeitig gibt es berechtigte Bedenken hinsichtlich der Kontrolle über diese Technologie, ihrer potenziellen Auswirkungen auf Arbeitspl?tze und Gesellschaft, sowie ethischer Fragen im Zusammenhang mit Diskriminierung und dem Verlust menschlicher Autonomie. Der Vortrag wird das komplexe Spannungsfeld zwischen Innovation und moralischer Verantwortung in KI Forschung beleuchten und illustrieren.

Zu Prof. Dr. Kristian Kersting

Prof. Dr. Kristian Kersting ist Kodirektor des Hessischen Zentrums für Künstliche Intelligenz (hessian.AI) und leitet das Fachgebiet KI und Maschinelles Lernen an der TU Darmstadt. Seine Forschung umfasst Deep Probabilistic Programming and Learning sowie Explainable AI. Er ist Fellow der Association for the Advancement of AI (AAAI), der European Association for AI (EurAI) und des European Lab for Learning and Intelligent Systems (ELLIS), Buchautor ("Wie Maschinen lernen") und Tr?ger des "Deutschen KI-Preises 2019”.  Er schreibt eine monatliche KI-Kolumne in der Welt.