Information zu unseren Kursen

Courses that had been offered and possibly will be offered again
  • Grundlagen algorithmischer Problemlösung – Teil: Algorithmische Problemlösung

    Diese Veranstaltung ist Teil des Moduls Grundlagen informatischer Problemlösung.

    In der Vorlesung zur „Algorithmischen Problemlösung“ erfolgt eine Einführung in Grundlagen der Informationsverarbeitung und eine erste Betrachtung des Algorithmusbegriffes. Aufbauend auf diesen Ausführungen werden informatische Methoden zur Problemlösung und Ansätze zur Modellierung von Problemen und Lösungsstrategien eingeführt.

  • Projektmanagement

    Projekte sind einmalige, zielorientierte und zeitbegrenzte Vorhaben und sind fester Bestandteil der Arbeitswelt geworden. Sie sind die Antwort auf steigende Herausforderungen in Form komplexer technischer Probleme, kürzer werdender Innovationszyklen, wachsenden Kostendrucks und zunehmender Vernetzung. Um die dabei auftretenden Probleme zielgerichtet zu lösen, Teams termintreu zu führen und Produkte marktgerecht zu gestalten, müssen unstrukturierte Arbeitsflüsse in Prozessen organisiert und durch konsequente Planung und Steuerung als Projekte verwirklicht werden.

    Dieser Workshop gibt eine praxisnahe und kompakte Einführung in die Methoden des Projekts- und Zeitmanagements, auch bezogen auf wissenschaftliche Projekte. Die Teilnehmerinnen und Teilnehmer wenden in drei Gruppen die Theorien und Instrumente für ihre eigenen (z. B. Dissertations-) Projekte an.

    Ziel des Workshops ist es, dass für drei existierende Projekte der Teilnehmenden jeweils ein Projektstrukturplan, eine Zeit- und Meilensteinplanung erstellt und eine Risiko- sowie Stakeholder-Analyse durchgeführt werden. Der Transfer vom Seminar zum Forschungsprojekt kann damit direkt erfolgen. Daneben reflektieren die Teilnehmenden Ihr Zeitmanagement und entwickeln erste Schritte zu einem effizienteren Umgang mit ihrer Zeit und dem Setzen von Prioritäten.
     
    Folgende Schwerpunkte werden behandelt:

    • Grundlagen des Projektmanagements
    • Definition der Projektziele
    • Steuerung des Projektumfangs
    • Stakeholder Management
    • Steuerung von Projektrisiken
    • Zeit- und Ressourcenmanagement
    • Strategien des Zeitmanagements
    • Effiziente Arbeitstechniken

    Umfang: 2 SWS

  • Informationsintegration

    Data integration is a process that combines data from several disparate data sources. It becomes one of the key challenges within most IT projects. Since these data sources are independently engineered and developed by different people, so, they contain a large number of heterogeneities. In order to provide a unified view of these data sources, we should deal with different kinds of heterogeneities.

    In this course, students will learn techniques and methodologies for integrating data from large sets of heterogeneous data sources. The course will cover the following topics:
    – Importance of data integration
    – Physical and virtual data integration
    – data and semantic heterogeneities
    – String, schema, and data matching
    – Web data integration

    Literature

    – AnHai Doan, Alon Halevy, Zachary Ives: Principles of Data IntegrationExternal link. Morgan Kaufmann, 2012.
    – Ulf Leser, Felix Naumann: InformationsintegrationExternal link. Dpunkt Verlag, 2007.
    – Luna Dong, Divesh Srivastava: Big Data Integration. Morgan External link& Claypool, 2015.
    – Serge Abiteboul, et al: Web Data ManagementExternal link. Cambridge University Press, 2012.
    – Jérôme Euzenat, Pavel Shvaiko: Ontology MatchingExternal link. Springer, 2007.
    – Felix Naumann: An Introduction to Duplicate DetectionExternal link. Morgan & Claypool, 2012.

    Software and tools
    – Data Matching softwareExternal link
    – Web Data INTEgRation Framework (WInte.r)External link
    – Minoan: Entity Resolution (ER) frameworkExternal link
    – HoloClean: A Machine Learning System for Data EnrichmentExternal link
    – ontology-matchingExternal link

  • Semantic Web Technologies

    Die Menge der digital verfügbaren Daten —sowohl global im Internet, als auch lokal innerhalb von Organisationen— wächst kontinuierlich. Längst ist es nicht mehr möglich sämtliche verfügbaren Daten manuell zu sichten. Suchmaschinen unterstützen Benutzer beim Auffinden relevanter Datensätze oder Dokumente. Allerdings ist die automatische Weiterverarbeitung unstrukturierter Daten, wie zum Beispiel Texten in Webseiten, nicht ohne weiteres möglich. Auch die Etablierung global einheitlicher Formate für Informationen des selben Typs ist nicht realistisch. Semantic Web Technologien ermöglichen die Anreicherung von Daten mit Bedeutung (Semantik), die auch für Maschinen verständlich ist, ohne jedoch ein global einheitliches Schema vorzugeben. Dadurch vereinfachen sie den automatisierten Austausch von Informationen und ermöglichen die automatisierte Verknüpfung von Daten (Linked Data) zur Gewinnung neuer Informationen.

    Ziele der Lehrveranstaltung:

    • Beherrschen der grundlegenden Sprachen (RDF, OWL) und wichtiger Vokabulare (RDFS, SKOS) des Semantic Webs
    • Beherrschen der Anfragesprache SPARQL zur Abfrage von Daten in RDF
    • Befähigung zum Umgang mit Techniken des automatisierten Schlussfolgerns (Reasoning)
    • Befähigung zum methodischen Vorgehen bei der Datenmodellierung und Datenbereitstellung mit Hilfe von RDF
    • Befähigung zur Anwendung von Semantic Web Technologien zur Suche von Daten
    • Befähigung zur Anwendung von Semantic Web Technologien zum Nachvollziehen der Herkunft von Informationen

    Aufbau:
    Die Lehrveranstaltung besteht sowohl aus theoretische als auch praktische Einheiten. In (ggf. voraufgezeichneten) Vorlesungen werden die grundlegenden Technologien des Semantic Webs eingeführt. Praktische Übungen und kleine Projekte vertiefen das Verständnis der vorgestellten Technologien.

  • Wissensgraphen (Seminar)

    Wissensgraphen sind vermutlich der aktuelle Ansatz, um verteilte Information zusammen zu bringen und zu nutzen. SNach einer kurzen Einführung werden wir uns im Seminar mit unterschiedlichen Aspekten dieses Ansatzes näher beschäftigen.

  • Softwareentwicklungsprojekt I und II

    Neben fachlichen Kenntnissen sind in der Informatik auch Eigenständigkeit, Teamfähigkeit, Ergebnispräsentation, Kommunikation mit Auftraggebern, sowie Zeit- und Projektmanagement wichtige Kompetenzen im Arbeitsalltag. Diese Veranstaltung bietet die Möglichkeit im Rahmen eines Projekts diese Fähigkeiten zu trainieren. Die angebotenen Projekte befassen sich mit realen Anwendungsproblemen, welche durch Unternehmen oder Forschungsgruppen bereitgestellt werden. In einer begleitenden Vorlesung werden zudem hilfreiche Methoden und Werkzeuge vorgestellt und durch Gastvorträge Einblicke in die praktische Ausgestaltung von Softwareentwicklungsprozessen in Firmen gewährt.

    Projektablauf

    • Berarbeitung eines Projekts in Teams von 3 bis 4 Personen
    • Vorstellung der Projekte, Rahmenbedingungen und Inhalte in der ersten Vorlesungswoche (Anwesenheit zwingend erforderlich)
    • Vergabe der Projekte in der zweiten Vorlesungswoche (rechtzeitige Mitteilung der Projektwünsche zwingend erforderlich)
    • Anwendung des Vorgehensmodells Scrum bei der Durchführung der Projekte
    • Einführung in Scrum in der zweiten Vorlesungswoche (einmaliger Doppeltermin)
    • Durchführung von Sprint Review und Planungsmeetings im Team mit dem Projektgeber (“Product Owner”) alle zwei Wochen
    • Diskussion von Zwischenständen, Berichten der Retrospektiven, sowie Vorstellen der Projektergebnisse am Ende der Vorlesungszeit

    Ziele der Lehrveranstaltung

    • Entwicklung der Eigenständigkeit und Teamfähigkeit, sowie der Kompetenzen in Präsentation, Kommunikation, Zeit- und Projektmanagement
    • Befähigung zur agilen Softwareentwicklung mit Scrum
    • Befähigung zum Umgang mit Werkzeugen für die Softwareentwicklung im Team, sowie Zeit- und Projektmanagement
    • Befähigung zur Anwendung individuel benötigter Technologien im Rahmen des Projekts

    Belegunmöglichkeiten

    • “Softwareentwicklungsprojekt 1” (SWEP-1: für den Bachelor)
    • “Softwareentwicklungsprojekt 2” (SWEP-2: für den Master)
    • “Offenes Softwareentwicklungsprojekt” (EAH Jena)

    Voraussetzungen

    • Die formalen Voraussetzungen Ihres Moduls (SWEP-1, SWEP-2, SOC-P: je nach Studiengang).
    • Teamfähigkeit: Das Projekt wird im Team mit verschiedenen Rollenverteilungen durchgeführt
    • Schnelle Einarbeitung in einzusetzende Technologien (je nach Projekt). Beispiele: Java, Android, NFC, HTML5, CSS, JavaScript, BPMN bzw. EPKs, Webservices, Datenbanken, Apache, etc.
  • Datenbanken und Informationssystem/ Datenbanksysteme I (Übung)

    Übung zur Vorlesung Datenbanken und Informationssysteme / Datenbanksysteme I

  • Rechnernetze und Internettechnologien

    Internet und WWW sind längst zum Bestandteil unseres täglichen Lebens geworden. Die Möglichkeit Information jederzeit abzurufen – aber auch jederzeit zu verbreiten, ist für viele von uns zur Selbstverständlichkeit geworden. In dieser Veranstaltung werden wir uns mit verschiedenen Grundlagen dieser Technologien beschäftigen: Wie können Rechner überhaupt miteinander kommunizieren? Wie funktioniert das Internet? Welche Sicherheitsmechanismen gibt es? Wie funktionieren Internetanwendungen, insbesondere das WWW? Was steckt hinter Web 2.0? Web 3.0?

    Die Veranstaltung besteht aus 2 SWS Vorlesung und 2 SWS Übung.

  • Management of Scientific Data

    Data is becoming more and more crucial for scientific progress. Terms like data-intensive or even data-driven science and Big Data are evidence of that. However, this new breed of science will only be successful, if data is properly managed along its entire lifecycle. The course provides you with the necessary tools to do just that.

    The course follows the data lifecycle and explores challenges, solutions and open problems of the individual steps, including:

    • Overview of the data lifecycle: data collection, quality assurance, data storage and preservation, data analysis and visualization, data publication, data discovery, data reuse and hypothesis generation

    • Cross-cutting topics covered include: Metadata standards and ontologies, scientific workflow management, persistent identifiers for data, data provenance and versioning.

    The module will be taught in English.

  • Visualisierungen

    Immer mehr Daten werden frei im Internet zur Verfügung gestellt. Nicht nur öffentliche Verwaltungen, sondern auch private Firmen wie bspw. Nahverkehrsbetriebe stellen interessierten Entwicklern Daten zur Verfügung. Dies umfasst sowohl statistische Daten, wie zum Beispiel die jeweiligen Einnahmen und Ausgaben von Behörden, als auch Daten über die Verfügbarkeit öffentlicher Einrichtungen, wie Kindergärten oder Fahrradwege.

    Um diese Daten entstehen zur Zeit eine Vielzahl von Anwendungen: Finanzdaten werden visualisiert, um dem Bürger eine bessere Kontrolle zu ermöglichen ( http://wheredoesmymoneygo.orgExternal link ), oder die aktuelle Auslastung von Parkplätzen wird genutzt, um Autos schneller zu einem geeigneten Parkplatz zu führen ( http://sfpark.org/External link ). Dies sind nur wenige, bereits existierende Beispiele. Der Phantasie der Entwickler sind hier aber keine Grenze gesetzt.

    Im Rahmen der Vorlesung sollen die hierbei nötigen Konzepte vermittelt werden. Diese reicht von Fehlerbehanldung beim Einlesen über die Aufbereitung in Form von Graphiken bis hin zum erneuten Veröffentlichen der Ergebnisse bspw. mit den Techniken des Semantic Web. Begleitend soll dieser Prozess anhand eines Beispiels konkret umgesetzt werden.

    Bisherige Ergebnisse dieser Veranstaltung:

    Open Data provider:

    Anwendung basierend auf Open Data:

  • Entwicklung verteilter Anwendungen

    Ein Großteil der heute entwickelten Softwareanwendungen sind verteilte Anwendungen: Mobile Apps beziehen Inhalte von Webservern, Messenger kommunizieren über zentrale Server oder Peer-To-Peer-Netzwerke miteinander, High-Performance-Cluster verteilen über Netzwerke Berechnungen auf viele Knoten, Logging-Systeme nutzen Blockchains zur dezentralen und manipulationssicheren Speicherung von Informationen. Bei der Entwicklung steht eine Vielzahl von Technologien zur Auswahl. In dieser Veranstaltung werden verschiedene Technologien praktisch ausprobiert und deren Funktionsweise, sowie Vor- und Nachteile betrachtet.

  • Informationssysteme in mobilen und drahtlosen Umgebungen

    Blocktermine werden in Vorbesprechung gemeinsam vereinbart.

    n dieser Blockveranstaltung beschäftigen wir uns mit unterschiedlichen Aspekten mobiler Datensammlung und -nutzung.

    Die Veranstaltung findet in diesem Semester online statt. Nähere Informationen zu Ablauf und Vorbereitung werden ab Mitte August im moodle verfügbar sein.

    Wir werden uns in diesem Semester auf zwei Anwendungsfelder für mobile und drahtlose Informationssysteme konzentrieren:

    Das ist zum einen  die Nutzung mobiler Datenerfassung in der Umweltforschung – eine Anwendung mobiler Techniken, die aktuell von stark wachsender Bedeutung ist und viele Teilprobleme hat, die auch für andere Anwendungen relevant sind.

    Unser zweites Thema wird die Nutzung mobiler und drahtloser Informationssysteme im Bereich ”Smart * – etwa Smart City oder Smart Home.

    Beispiele für Themen sind etwa: Organisation von Sensornetzen (wie sorgt man dafür, dass Sensoren trotz begrenzter Energievorräte und hoher Ausfallrate vernünftige Ergebnisse liefern – und zwar möglichst lange?), Citizen Science (Wie können die Milliarden von Smartphones, die überall unterwegs sind zur Unterstützung der Forschung genutzt werden?),
    Erfassung und Verwaltung von Lokationsinformation (Wie wird die Position bestimmt? Wie kann Lokationsinformation in Datenbanken abgelegt werden? Welche Rolle spielt Kontextinformation? Wie ist das mit Datenschutz vereinbar?…)

     

    Während der Veranstaltungswoche wechseln sich Vorlesungsteile mit studentischen Präsentationen, Gruppen- und Einzelarbeit ab. Dazu müssen Sie voraussichtlich vor Veranstaltungsbeginn ein Poster erstellen und eine Präsentation vorbereiten. Nähere Details dazu finden Sie rechtzeitig vor Veranstaltungsbeginn im moodle.

  • Open Science

    Diese Veranstaltung kombiniert einen Vorlesungsteil mit einem Projekt, in dessen Rahmen Sie unterschiedliche Aspekte von Open Science (von der Preregistration über die “eigentliche” wissenschaftliche Arbeit, die Wahl von Lizenzen, open peer review bis zur Open Access Publikation) kennenlernen werden. Die Projekte werden so gewählt sein, dass eine Fortführung als Projekt- oder Abschlußarbeit problemlos möglich ist.

    English

    This event combines a lecture part with a project in which you will get to know different aspects of Open Science (from preregistration to the “actual” scientific work, the choice of licenses, open peer review and open access publication).  The projects will be chosen in such a way that a continuation as project or final work is possible without any problems.

  • (Semantische) Daten- und Prozessintegration

    Data integration is a process that combines data from several disparate data sources. It becomes one of the key challenges within most IT projects. Since these data sources are independently engineered and developed by different people, so, they contain a large number of heterogeneities. In order to provide a unified view of these data sources, we should deal with different kinds of heterogeneities.

    In this course, students will learn techniques and methodologies for integrating data from large sets of heterogeneous data sources. The course will cover the following topics:
    – Importance of data integration
    – Physical and virtual data integration
    – data and semantic heterogeneities
    – String, schema, and data matching
    – Web data integration

    Literature

    – AnHai Doan, Alon Halevy, Zachary Ives: Principles of Data IntegrationExternal link. Morgan Kaufmann, 2012.
    – Ulf Leser, Felix Naumann: InformationsintegrationExternal link. Dpunkt Verlag, 2007.
    – Luna Dong, Divesh Srivastava: Big Data Integration. Morgan External link& Claypool, 2015.
    – Serge Abiteboul, et al: Web Data ManagementExternal link. Cambridge University Press, 2012.
    – Jérôme Euzenat, Pavel Shvaiko: Ontology MatchingExternal link. Springer, 2007.
    – Felix Naumann: An Introduction to Duplicate DetectionExternal link. Morgan & Claypool, 2012.

    Software and tools
    – Data Matching softwareExternal link
    – Web Data INTEgRation Framework (WInte.r)External link
    – Minoan: Entity Resolution (ER) frameworkExternal link
    – HoloClean: A Machine Learning System for Data EnrichmentExternal link
    – ontology-matchingExternal link

  • Knowledge Graph Analysis

    Traditional database systems and warehouses are centered around records and tuples, which can be effective and efficient when a domain is well known in advance.  However, in domains where one has the need to flexibly connect all sort of, possibly unexpected kind of information to the records, the Knowledge Graphs technology has distinctive advantages. As a result, currently the term “Knowledge Graph” has become mainstream as information giants like Google, Facebook, Yahoo, Microsoft, have announced their move from traditional search and data management to “Knowledge Graphs“.

    In this seminar, we aim to discuss the current topics related to “Knowledge Graphs”, which includes, but not limited to:

    • Knowledge representation
    • Semantic search
    • Query answering
    • Entity matching and resolution
    • Link discovery
    • Knowledge graph partitioning and clustering
    • Community detection
    • Application of machine learning on Knowledge graph
  • Datenbanksysteme 1

    Es werden über rein einführende einschlägige Dinge hinaus (die durch Teilnahme am Modul Grundlagen der Informations- und Softwaresysteme (ISYS) oder auf anderen Wegen bekannt sein sollten) tiefergehende Kenntnisse zur Datenbanktechnologie vermittelt: Hierzu gehören u.a. Schichtenarchitekturen im Zusammenhang mit Datenbank-Management-Systemen, Daten- und Datenbankmodelle sowie -modellierung (Methodik, Syntax, Semantik), verschiedene relationale und nichtrelationale Ansätze und Datenbanksprachen, auch bereits ein wenig die Grundlagen der Optimierung und des Datenbank-Tuning (Performance-Aspekte).

  • Verteilte Systeme

    In der Veranstaltung “Grundlagen der Informations- und Softwaresysteme” (ISYS) wurden wichtige Konzepte zur Realisierung verteilter Systeme eingeführt. Aufbauend darauf werden wir uns in dieser Veranstaltung damit beschäftigen, wie verteilte Systeme nun tatsächlich realisiert werden und welche weiteren Problemstellungen neben den uns schon bekannten dort eine Rolle spielen.

    Wir werden unterschiedliche Architekturparadigmen kennenlernen, uns aber auch an einigen Beispielen aus der Praxis (etwa Amazon oder Facebook) ansehen, wie sich die theoretischen Konzepte dort widerspiegeln. Der Schwerpunkt wird auf webbasierten Systemen liegen. In der Veranstaltung werden grundlegende Technologien zu deren Realisierung in Theorie und Praxis vermittelt und erprobt.

    Voraussetzung für die Zulassung zum Modul: FMI-IN0021 (Grundlagen der Informations- und Softwaresysteme)

    Leistungspunkte (ECTS credits): 6

    Lehrform (SWS): 3V + 1Ü