Abstracts

show Content KEYNOTE - Kristian Kersting - The Automatic Data Scientist

Our minds make inferences that appear to go far beyond standard data science. Whereas people can learn richer representations and use them for a wider range of learning tasks, machine learning algorithms have been mainly employed in a stand-alone context, constructing a single function from a table of training examples. In this talk, I shall touch upon a view on data science that can help capturing these human learning aspects by combining high-level languages and databases with statistical learning, optimisation, and deep learning. High-level features such as relations, quantifiers, functions, and procedures provide declarative clarity and succinct characterisations of the data science problem at hand. This helps reducing the cost of modelling and solving it. Putting probabilistic deep learning into the data science stack, it even paves the way towards one of my dreams, the automatic data scientist — an AI that makes data analysis and reporting accessible to a broader audience of non-data scientists. 
This talk is based on joint works with many people such as Carsten Binnig, Martin Grohe, Zoubin Ghahramani, Martin Mladenov, Alejandro Molina, Sriraam Natarajan, Robert Peharz, Cristopher Re, Karl Stelzner, Martin Trapp, Isabel Valera, and Antonio Vergari.

show Content Bringing deep learning to practice - how to avoid pitfalls in ML projects (Dr. Alexander Freytag, Zeiss)

Der technologische Fortschritt in dem Forschungsbereich des Maschinellen Lernens (ML) beeinflusst maßgeblich unsere heutige Gesellschaft. Das autonom fahrende Auto ist keine Zukunftsvision mehr, längst gibt es intelligente Programme, die Ärzten helfen, bei ihrer Diagnose die richtigen Fragen zu stellen, die „Digitalisierung“ hat nahezu jeden Wirtschaftszweig erreicht und wir alle haben schon mit unseren Smartphones gesprochen. Schlagworte wie „Deep Learning“, „Industrie 4.0“, „Artificial intelligence“, „Big Data“ oder „Smart Home“ sind in aller Munde und omnipräsent in den Medien vertreten. Aber wie kommt ML eigentlich erfolgreich in ein Produkt?
Aspekte des Maschinellen Lernens wecken in immer mehr Forschungs- und Industriezweigen die Hoffnung, bisher existierende Limitierungen zu überwinden. Tatsächlich sind die resultierenden Möglichkeiten oft groß – ebenso wie die Euphorie bei Projektstart. Häufig eröffnen sich jedoch typische ML-Projekt-Probleme, welche das erfolgreiche Abschließen der Projekte verzögern, erschweren oder sogar verhindern. In diesem Vortrag werden wir an Hand von Beispiel-Projekten aus der Vergangenheit sehen, wie Machine Learning erfolgreich in Produkten Einsatz finden kann, welche Vorteile sich ergeben, welche Voraussetzung erfüllt sein sollten und welche Fehler man besser vermeiden sollte.

PortraitAlexanderFreytagZeiss

Zur Person

Dr. Alexander Freytag (geb. 1988 in Erfurt) studierte von 2006 bis 2011 Informatik an der Friedrich-Schiller-Universität Jena und erhielt dort 2011 sein Diplom. Für seine Promotion blieb er der FSU von 2011 bis 2016 verbunden, unterbrochen von einem Aufenthalt an der UC Berkeley, California. Für seine 2016 verteidigte Dissertation mit dem Titel „Lifelong Learning for Visual Recognition Problems“ wurde er mit mehreren Preisen gewürdigt, darunter der DAGM MVTec Dissertation Award, welchen die Deutsche Arbeitsgemeinschaft für Mustererkennung (DAGM e.V.) vergibt, sowie der Klartext-Preis für Wissenschaftskommunikation im Fachgebiet Informatik, vergeben durch die Klaus-Tschira-Stiftung. Während seiner Promotionszeit übernahm Alexander Freytag von 2014 bis 2016 das Amt des wissenschaftlichen Koordinators des Michael-Stifel-Zentrums Jena, einem interdisziplinären Zentrum im Bereich der datengetriebenen und simulationsgestützten Wissenschaften. Seit 2016 forscht Alexander Freytag bei der Carl Zeiss AG in Jena an der nächsten Generation intelligenter optischer Systeme.

Foto: ©Nikola Neven Haubner und Klaus Tschira Stiftung

show Content Fundamentals of Visualization (Philipp Lucas, FSU Jena)

Das Tutorial "Fundamentals of Visualization" gibt eine praktische Einführung zu grundlegenden Konzepten, Herausforderungen und Fragestellungen von Visualisierung. Es wird zudem eine strukturierte Herangehensweise zu Analyse und Design von Visualisierungen aufgezeigt, die auf der iterativen Beantwortung der Fragen "What?", "Why?" and "How?" nach T Munzner basiert.

Zur Person

Philipp Lucas promoviert seit 2014 zum Thema "Visuell-interaktive Exploration generischer, generativer Wahrscheinlichkeitsmodelle" am Lehrstuhl Theoretische Informatik II an der Friedrich-Schiller-Universität Jena. Der gebürtiger Jenenser erlangte ebenfalls an der FSU einen Diplomabschluss in Informatik. Im Zuge des Studiums und der Promotion absolvierte er mehrere Auslandsaufenthalte in Aberdeen (Schottland), Tsukuba (Japan) sowie Songdo (Südkorea).

show Content Eine kurze Einführung in die Statistische Lerntheorie (Prof. Dr. Jochen Giesen, FSU Jena)

Zusammenfassung: Ein praktisches Ziel des maschinellen Lernens ist es mittels Daten gute Vorhersagen zu machen. Formal beobachtet man dabei Daten in Paaren (x,y), wobei x ein Merkmalsvektor und y ein Label ist.
Merkmalsvektoren können z.B. die Pixel in einem Bild sein und das zugehörige Label ist 1, wenn das Bild eine Katze enthält, und 0, andernfalls. Gesucht ist eine Funktion, die fuer jeden möglichen Merkmalsvektor ein Label vorhersagt. In unserem Beispiel, eine Funktion die den Wert 1 annimmt, wenn das Eingabebild eine Katze enthält, und andernfalls den Wert 0. Gegeben eine endliche Menge von Datenpaaren, wie kann man man mittels der Daten aus der großen Klasse von Funktionen, die Merkmalsvektoren auf Label abbilden, eine Funktion auswählen, die gute Vorhersagen auf zuvor noch nicht gesehenen Merkmalsvektoren macht? Auf den ersten Blick scheint eine Lösung dieses Auswahlproblems hoffnungslos? Zwischen 1960 und 1990 haben Vladimir Vapnik und Alexey Chervonenkis in der Sowjetunion und Leslie Valiant in den USA Theorien entwickelt, die es erlauben zu verstehen, was eine gute Auswahl der Vorhersagefunktion ausmacht. In meinem Vortrag werde ich die Grundideen dieser Theorien und ihre erstaunliche praktische Bedeutung vorstellen.

show Content GPU Computing (Prof. Dr. Gerhard Zumbusch, FSU Jena)

In diesem Tutorium wollen wir den "Hype" GPU Computing etwas genauer beleuchten, also das Rechnen auf Grafikkarten. Nach einer kurzen Einführung in Cuda, eine weit verbreitete Erweiterung der Programmiersprachen C/C++, wie sie in vielen Anleitungen zu finden ist, schauen wir uns die Konzepte genauer an:
Üblicherweise wird man für einen Algorithmus die Zahl der Rechenoperationen als Maßstab nehmen. Diese Komplexität ist aber leider nur ein Faktor, der die Rechenzeit bestimmt. Wesentliche andere Effekte sind Speicher und Parallelität, speziell auch für GPU. Das bedeutet, dass das Design eines Prozessors, GPU oder multi-core CPU, großen Einfluss auf den optimalen Algorithmus und seine Implementierung hat. Wir werden das an einem Beispiel genauer studieren.