Abstracts

show Content Photonic Data Science: Die Reise von spektralen Messungen zu diagnostischen Informationen.

Photonische Technologien, wie die Raman Spektroskopie, die Infrarot-Spektroskopie, die opto-akustische Bildgebung und die nicht-lineare Kontrastmikroskopie, sind optimal geeignet, um bio-medizinische Proben zu untersuchen, da sie zerstörungsfrei molekulare Informationen liefern. All diese photonischen Technologien sind Marker-frei oder werden meistens so eingesetzt, weswegen diese Methoden un-gerichtete (engl. untargeted) Daten liefern, das heißt es existiert in diesen Daten kein direkter Kontrast für ein spezifisches, bio-medizinisches Problem. Dieser Kontrast muss Rechner-gestützt generiert werden, um diagnostisch-interpretierbare Informationen zu erhalten, und für diese Aufgabe werden maschinelles Lernen und Chemometrie eingesetzt. Das Feld „Photonic Data Science“ beschäftigt sich mit der Erforschung angepasster Verfahren für diese Kontrasterzeugung und es wird in diesem Vortrag vorgestellt.

Zur Person

PD Dr. Thomas Bocklitz studierte Physik an der Friedrich-Schiller-Universität Jena. Nach seiner Promotion an der Universität Jena im Jahre 2011 und einer PostDoc-Phase, war er seit 2013 als Leiter der Nachwuchsgruppe „Statistische Modellierung und Bildanalyse“ an der Universität Jena tätig. Im Jahr 2016 habilitierte er sich an der Universität Jena und wurde der Leiter der Joint-Arbeitsgruppe „Statistische Modellierung und Bildanalyse“ des Leibniz-Instituts für Photonische Technologien e.V. Jena (Leibniz-IPHT). Seit 2019 leitet Thomas Bocklitz die Abteilung „Photonic Data Science“ am Leibniz-IPHT. Sein wissenschaftliches Interesse gilt angepassten Datenauswertungsverfahren um maximale Informationen aus molekularen Messdaten für biomedizinische, lebenswissenschaftliche und umweltwissenschaftliche Fragestellungen zu extrahieren. Für diese Informationsextraktion kommen Methoden der künstlichen Intelligenz, wie maschinelle Lernverfahren, chemometrische Techniken und Datenfusionsmethoden zum Einsatz.

show Content Load Testing the Modern Web

Load testing is an essential part of the modern web to ensure performance and stability of the backbone of many services. But what is performance and stability and how can that be demonstrated? This talk shows and explains the vast amount of data that is collected and evaluated during load testing.

Zur Person

René ist Firmenmitgründer von Xceptance und seit der Firmengründung 2004 ist er stellvertretender Geschäftsführer und spielt eine große Rolle in der Definition des Firmenprofils, einschließlich der Entwicklung und Evaluation der hauseigenen Testwerkzeuge und Serviceleistungen. Seit 2006 ist René zudem leitender Geschäftsführer der Xceptance, Inc. in Cambridge, MA, USA. Vor der Gründung von Xceptance war er Technischer Leiter der Abteilung für Qualitätssicherung bei der auf E-Commerce spezialisierten Intershop Communications AG und verfügt so über einen umfassenden Erfahrungsschatz in den Bereichen E-Commerce und web-basierter Software. René hat ein Studium der Informatik an der Brandenburgischen Technischen Universität Cottbus absolviert.

show Content Towards Big Data Systems for Interactive Data Exploration

Technology has been the key enabler of the current Big Data movement. Without open-source tools like R and Spark, as well as the advent of cheap, abundant computing and storage in the cloud, the trend toward datafication of almost every field in research and industry could never have happened. However, the current Big Data tool set is ill-suited for interactive data analytics to better involve the human-in-the-loop which makes the knowledge discovery a major bottleneck in our data-driven society. In this talk, I will present an overview of our current research efforts to revisit the current Big Data stack from the user interface to the underlying hardware to enable interactive data analytics and machine learning on large data sets.

Zur Person

Carsten Binnig is a Full Professor in the Computer Science department at at TU Darmstadt and an Adjunct Associate Professor in the Computer Science department at Brown University. Carsten received his PhD at the University of Heidelberg in 2008. Afterwards, he spent time as a postdoctoral researcher in the Systems Group at ETH Zurich and at SAP working on in-memory databases. Currently, his research focus is on the design of scalable data management systems for modern hardware as well as modern workloads such as interactive data exploration and machine learning. His work has been awarded with a Google Faculty Award, as well as multiple best paper and best demo awards for his research.