Softwareentwicklung

Profilbild Christian Stein
Kultur-, Sozial- und Bildungswissenschaftliche Fakultät

gamelab.berlin (Co-Leiter)
Exzellenzcluster Matters of Activity / Projekt Object Space Agency (Mitarbeiter)

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Dr. Stein hat viel Erfahrung mit der Konzeption und Entwicklung von Serious Games und Gamification für den Wissenstransfer, insbesondere für Museen, Kulturinstitutionen und in der Medizin. Als Germanist und Informatiker beherrscht er sowohl die konzeptionelle und kulturelle Perspektive als auch die technische der Umsetzung. Er hat über 15 Softwareentwicklungsprojekte in den Bereichen App, VR, AR und Browser-Apps geleitet. Wenn es darum geht, Wissen zu vermitteln und Erfahrungen aufzubauen, sind Spiele das Medium unserer Zeit, so Dr. Stein. Als Forscher und Spieleentwickler ist er besonders an spannednen Vermittlungsherausforderungen interessiert.

https://indd.adobe.com/view/d0350ae0-6591-4f69-ad02-6d2508979a8f

Wissenschaftliche Dienstleistungen

Dr. Stein entwickelt Konzepte für Spiele zur Wissensvermitlung, Serious Games und Gamification. Darüber hinaus befasst er sich mit der Softwareentwicklung, der Umsetzung sowie dem Testing dieser. Zudem bietet er Workshops zu VR und Spielen als Kulturtechnik an.

Die folgenden Softwareprojekte wurden alle im akademischen Kontext nach Dr. Steins Konzeption und unter seiner Leitung iterativ und agil entwickelt, getestet und veröffentlicht und stellen einen wesentlichen Teil seiner Veröffentlichungen dar.

Mein Objekt

  • Mein Objekt ist ein innovatives Museums-Spiel, das Besuchern den Dialog mit Objekten ermöglicht, und dabei digitale Gewohnheiten in kulturelles Interesse zu überführen versucht. Unter Nutzung von Machine Learning und adaptiver Sprache wird eine Anpassung der Anwendung auf den individuellen Besucher gewährleistet, so dass eine personalisierte, interessensgeleitete Museumstour entsteht. Das Projekt wurde im Rahmen von museum4punkt0 für das Humboldt Forum entwickelt und wird mit dessen Eröffnung dort das erste Mal zum Einsatz kommen. Es ist in React Native entwickelt und kommt BYOD für Android und iOS zum Einsatz.

 Diary

  • Diary ist ein Werkzeug zur Erforschung von wissenschaftlicher, interdisziplinärer Arbeit und ist für die Experimantalzone des Exzellenzclusters Bild Wissen Gestaltung entwickelt worden, um interdisziplinäre Kooperation besser zu verstehen. Es ist für MacOS in Objective-C entwickelt und kann Aktivitäten wie Softwarenutzung, Tastenanschläge, Aktivitätszyklen und weiteres aufzeichnen, visualisieren und mit einem Server synchronisieren. Es dient der Erforschung von digitalen Arbeitsweisen und -gewohnheiten verschiedener Disziplinen und nützt den Anwendern zudem in Bezug auf Selbstreflektion ihrer Arbeitsweise.

iWrite

  • iWrite ist ein gamifiziertes Werkzeug zur Verbesserung von wissenschaftlichen Schreibprozessen. Es ist für MacOS in Objective-C entwickelt und erlaubt dem Nutzer, Schreibprozesse in konzentrierte Sessions zu gliedern, Ablenkungen auszuschalten, Fortschritt zu visualisieren und Schreibsessions zu planen. Zudem werden Schritt für Schritt Tipps und Videos von Schreibexperten freigeschaltet.

BWG VR

  • BWG VR ist eine interaktive, stereoskopische 360°-Erfahrung für Virtual-Reality-Headsets, die den Exzellenzcluster Bild Wissen Gestaltung in seinen verschiedenen Räumen zeigt und Akteure des Clusters exemplarisch in ihren Arbeitsumgebungen vorstellt. Dabei wird die Verbindung von Raum, Objekten und Personen vorgestellt und die komplexe Konfiguration unterschiedlicher Akteure erfahrbar gemacht.

Singleton

  • Singleton ist ein Spiel zur Integration von persönlichen Zielen in den Alltag und individueller Entwicklung anhand selbstgesteckter Prioritäten aufgrund theoretischer Grundlagen aus Psychologie und Game Studies. Es ist in Unity Mobile für Android und iOS entwickelt und ermöglicht anhand von individuell erzeugten Kartendecks, unterhaltsame und zielführende Mikrointerventionen in einem Levelsystem auszuführen. Es basiert auf den Big 5 Charaktereigenschaften und ordnet dynamisch bestimmte Kartenpacks individuell dem Nutzer zu.

ID+Lab

  • ID+Lab ist das prototypische Frontend einer Publikationsplattform, die darauf ausgerichtet ist, interdisziplinäre Forschungsarbeiten als Netzwerk zu publizieren und Zusammenhänge zu zeigen, die sonst verborgen bleiben. Es ist als Webapplikation entwickelt und basiert auf Semantic Web Technologien mit GraphDB im Hintergrund. Publikationen werden hier als semantisches Netz modelliert und dynamisch und intuitiv visualisiert. Ein DFG-Forschungsantrag zur Vertiefung des Projektes befindet sich in Begutachtung.

Reading Revisited

  • Reading Revisited ist eine VR-Anwendung, die Lesen in Virtual Reality erprobt und verschiedene Texte dynamisch in bewegte Landschaften integriert. So wird der Frage nachgegangen, welchen Einfluss Leseumgebungen auf das Verstehen und Memorieren haben und ob sich Text als eine Verbindung aus Umgebung und Lesen denken lässt. Texte des kooperierenden Merve Verlags werden dabei in VR les- und erlebbar und können in einer eigens dafür entwickelten Umgebung rezipiert werden.

Bee Virtual

  • Bee Virtual ist eine kollaborative VR-Anwendung, in der zwei Probanden virtuelle Bienen durch Blickrichtung steuern und durch einen virtuellen Raum lenken. Sie wurde in Unity 3D für Oculus Rift entwickelt. Dieser ist dem physischen Raum des Zentralen Laborraums des Exzellenzclusters Bild Wissen Gestaltung nachgebildet. In einem Experimentalsetting wurde untersucht, wie Objekte in VR gemerkt werden, virtuelle Räume auf physische übertragen werden können und inwiefern Kommunikation unter den Probanden das Merken von Umgebungseigenschaften beeinflusst.

PlosOne Metadata Extractor

  • PlosOne Metadata Extractor ist ein Browserplugin, das die Extraktion von Metadaten in Listen von PlosOne- Publikationen inklusive Abstracts extrahiert und somit für Textmining verarbeitbar und analysierbar macht.

Decide & Survive

  • Decide & Survive ist ein Spiel, das Entscheidungsprozesse in außenpolitischen Gemengelagen erlebbar macht und darauf abzielt den Einfluss von Nutzeroberflächen auf Entscheidungen der Spieler zu untersuchen, indem zum einen aggressive und zum anderen neutrale Oberflächen und Sounds verwendet werden. Es ist in Java mit JavaFX entwickelt und läuft serverseitig über PHP.

OncoLogg

  • OncoLogg ist ein Spiel, dass für Patienten des Multiplen Myeloms und ihre Angehörigen gedacht ist und diese über Therapien, Risiken und Nebenwirkungen aufklären soll. Es lässt den Spieler verschiedene Therapiedurchläufe erleben und refokussiert dabei von Heilung auf die Erreichung von Lebenszielen. Das Spiel wurde zusammen mit der Charité in Java für Android entwickelt.

iglos

  • iglos, oder das Intelligente Glossar ist eine Anwendung zur Gestaltung semantischer Netze, die Terminologie- und Verständnisprobleme in interdisziplinären akademischen Projekten erkennen und erleichtern soll. Sie ist browserbasiert mit Web-Technologie entwickelt und RDF/OWL kompatibel.
  • Workschops

Forum Junge Spitzenforscher 2013: Projekt Big Data for Knowledge Networks

MEHR ANZEIGEN
Profilbild Weidlich
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Informatik

Process-Driven Architectures

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Prof. Weidlich leitet die Gruppe Process-Driven Architectures. Ziel seines Teams ist es, das Design und die Analyse von prozessorientierten Informationssystemen (POIS) und ereignisgetriebenen Systemen (ES) zu unterstützen und zu verbessern. POIS sind Softwaresysteme, die eine Automation, Steuerung sowie Kontrolle von Abläufen ermöglichen. Damit finden solche Systeme Anwendung in einer Vielzahl von Bereichen; von der Logistik über das Gesundheitswesen bis hin zum Monitoring von Infrastrukturen. Zu den Arbeits- und Forschungsschwerpunkten des Teams gehören formale Methoden der Verhaltensmodellierung und -verifizierung, ereignisorientierte Ansätze zur Überwachung und Kontrolle von Prozessen, als auch Fragen hinsichtlich der Integration prozessorientierter Daten zur Vorhersage von Verhaltensabläufen. Im Bereich der ES widmet sich die Gruppe hauptsächliche Techniken, welche das Laufzeit-Verhalten dieser Systeme optimieren. So kann beispielweise die Auswertung von Anfragen über Ereignisströmen durch die Erkennung von Regelmäßigkeiten in den Ereignisströmen effizienter gestaltet werden. 2016 wurde Prof. Weidlich zu einem „Junior Fellow“ der Gesellschaft für Informatik (GI) ernannt und mit dem Berliner Nachwuchs-Wissenschaftspreis des regierenden Bürgermeisters ausgezeichnet.

Wissenschaftliche Dienstleistungen
  • Umfangreiche Erfahrung und Expertise in der Dokumentation von Geschäftsprozessen, sowie im Bereich der Schulung in Techniken des Prozessmanagements
  • Expertise im Bereich des Prozess Mining, der datengetriebenen Analyse von Prozessen, sowohl in qualitativer (Compliance Anforderungen) als auch quantitativer Hinsicht (Bottleneck-Analyse, Planung von Resourceneinsatz)
  • Know-how hinsichtlich der Skalierung von Ereignisstromverarbeitung auf großen Datenmengen
  • Führende Krebsklinik in den USA: Analyse und Verbesserung der klinischen Abläufe auf Basis von Daten eines Real-Time-Locating-Systems
  • Internationaler Öl- und Gaskonzern: Entwicklung von Techniken um Unregelmäßigkeiten in Strömen von Sensordaten aufzuspüren
  • Namhafter deutscher Unternehmenssoftware-Hersteller: Entwurf und Entwicklung von Erweiterungen für eine Plattform für die Geschäftsprozessmodellierung
MEHR ANZEIGEN
Profilbild Schlingloff
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Informatik

Softwaretechnik

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Eingebettete Informatiksysteme dringen immer mehr in alle Bereiche des täglichen Lebens vor, man denke nur an Fahrassistenzsysteme im Auto, medizinische Geräte, oder Steuerungssysteme in Industrieanlagen. Je mehr diese Systeme auch sicherheitskritische Aufgaben übernehmen, desto wichtiger wird eine effektive und effiziente Qualitätssicherung dafür. Die Forschungsgruppe SVT (Spezifikation, Verifikation und Testtheorie) beschäftigt sich mit modellbasierter Entwicklung und Modellprüfung, logischer Verifikation und der automatischen Generierung und Ausführung von Tests für sicherheitskritische Software. Prof. Schlingloff ist Chief Scientist des System Quality Center am Fraunhofer-FOKUS, Berlin, und Vorstandsvorsitzender der Forschungsvereine GFaI e.V. und ZeSys e.V.

  • Großes deutsches Unternehmen für Kommunikation und Sensorik: Studentisches Semesterprojekt zur Erstellung eines Systems zur verteilten Überwachung der Luftqualität in Innenräumen.
MEHR ANZEIGEN
Profilbild Leser
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Informatik

Wissensmanagement in der Bioinformatik

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Die Forschungsarbeiten von Prof. Leser und seinen Mitarbeitern und Mitarbeiterinnen beschäftigen sich mit allen Aspekten der Integration und Analyse heterogener und verteilter Daten, der Modellierung, Implementierung und Optimierung komplexer Wissens- und Datenbanken sowie der automatischen Analyse von natürlichsprachlichen Texten (Text Mining bzw. Informationsextraktion). Dies umfasst Themen wie Data Warehouses und multidimensionale Indexierungsverfahren, Graphdatenbanken, Deep Web und Semantic Web, maschinelles Lernen, Ähnlichkeitssuche, Scientific Workflows und ETL-Prozesse, statistische Datenanalysemethoden und Methoden zur Abschätzung und Sicherung der Datenqualität. Die Gruppe forscht in vielfältigen interdisziplinären Projekten, vor allem mit Kollegen und Kolleginnen aus der biomedizinischen Grundlagen- und angewandten Forschung.

https://indd.adobe.com/view/d0350ae0-6591-4f69-ad02-6d2508979a8f

Wissenschaftliche Dienstleistungen

Sehr gute IT-Ausstattung:

  • mehrere moderne Rechencluster (20-80 CPUs, 1 TB Hauptspeicher)
  • Cluster mit 60+ Kernen
  • 50 TB+ Speicherkapazität
  • Beratung und Prototypentwicklung für ein IT-Systemhaus im Bereich Stammdatenstandardisierung und -integration
  • Algorithmenentwicklung und -evaluation zur Datenqualitätsanalyse für einen IT-Produkthersteller
  • Beratung und Entwicklung von Text-Mining-Verfahren für einen internationalen Pharmakonzern
  • Gemeinsame Systementwicklung mit einem mittelständischen Biotechnologieunternehmen im Bereich der Bewertung humaner Genotypveränderungen (gefördert vom Bundesministerium für Wirtschaft und Energie (BMWi))
MEHR ANZEIGEN
Profilbild Koch
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Physik

Experimentelle Physik (Strukturforschung/Elektronenmikroskopie)

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Die Arbeitsgruppe Strukturforschung / Elektronenmikroskopie an der HU zu Berlin ist aktiv in der Entwicklung und Anwendung eines breiten Spektrums neuer Methoden für die Untersuchung kleinster Volumen mittels Transmissionselektronenmikroskopie (TEM), Rastertransmissionselektronenmikroskopie (STEM), Rasterelektronenmikroskopie (REM), aber auch optischer Mikroskopie. Dabei hervorzuheben sind die Entwicklung völlig neuer Elektronenbeugungsmethoden zur Bestimmung der atomaren Struktur in (nano-)kristallinen Materialien, sowie die Entwicklung inline-holographischer Methoden, sowohl am TEM, als auch am optischen Mikroskop. Die von uns entwickelten Methoden der inline Holographie setzen wir im TEM ein, um elektrostatische Potentiale, Ladungsträgerverteilungen, und mechanische Verspannungen in Halbleitern und Keramiken zu kartieren. Im optischen Mikroskop verwenden wir die inline Holographie für die quantitative Phasenmikroskopie an lebenden Zellen oder Topographiekartierungen von Oberflächen mit nm z-Auflösung.

Wissenschaftliche Dienstleistungen

Transmissionselektronenmikroskope:

  • JEOL JEM2200FS FEG-(S)TEM ausgerüstet mit einem in-column Energiefilter für Elektronenverlustspektroskopie, HAADF- und BF-STEM Detektoren, EDX-Spektrometer für lokale Elementanalyse, NanoMegas ASTAR Precession Einheit für das Kartieren kristalliner Phasen und Elektronenkristallographie, elektrostatisches Biprisma für Elektronenholographie, Akquisitionssoftware für Large-Angle Rocking-Beam Electron Diffraction (LARBED)
  • Hitachi H-8110 (S)TEM with LaB6 Kathode, ausgerüstet mit HAADF- und BF-STEM

Detektoren Rasterelektronenmikroskop:

  • Zeiss GeminiSEM 500 mit Feldemissionsquelle, ausgerüstet mit einem multi-Segment STEM Detektor, einem EDX-Spektrometer, und einer Elektronenstrahllithographieeinheit (RAITH-Elphy)
  • Im Rahmen eines Kooperationsvertrages hat Prof. Koch Methoden zur Auswertung von Bildserien für eines der weltweit führenden Optik-Unternehmen entwickelt.
MEHR ANZEIGEN
Profilbild Kehrer
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Informatik

Modellgetriebene Softwareentwicklung

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

In der Softwaretechnik spielen Modelle eine zunehmend zentrale Rolle, um die stetig wachsende Komplexität softwareintensiver Systeme zu beherrschen. Modellgetriebene Softwareentwicklung verfolgt zum einen die Generierung von Teilen eines Systems aus domänenspezifischen Modellen, welche den Übergang von informellen Anforderungsspezifikationen hin zu technologiespezifischen Realisierungen erleichtern. Am Modell eines Systems mitsamt seiner Umgebung können zudem kritische Systemeigenschaften bereits vor der eigentlichen Implementierung analysiert, validiert und verifiziert werden. Die modellgetriebene Entwicklung führt somit zu einer Steigerung von Produktivität und Qualität. Modellgetriebene Softwareentwicklung hat sich für eingebettete Systeme und einige andere Domänen bereits teilweise etabliert. Modellgetriebene Entwicklung löst jedoch nicht alle softwaretechnischen Herausforderungen, tatsächlich werden auch neue geschaffen. Die Forschung am Lehrstuhl für Modellgetriebene Softwareentwicklung orientiert sich in besonderem Maße an relevanten Problemen und Herausforderungen, welche bei der Umsetzung des Paradigmas der modellgetriebenen Entwicklung in der industriellen Praxis zu beobachten sind.

Wissenschaftliche Dienstleistungen
  • Expertise im Bereich der Einführung modellbasierter Entwicklungstechniken und -prozesse
  • Know-How hinsichtlich des Aufbaus modellbasierter Transformationsketten (Domänenspezifische Modellierungssprachen, Modelltransformation und -interpretation, Code-Generierung) und Entwicklungsumgebungen (Kollaborative Modellierung, (Ko-)Evolution von Modellen, Modellreparatur und -synchronisation)
  • Umfangreiche Erfahrung im Bereich Versions- und Variantenmanagement, insbesondere maßgeschneidertes Konfigurationsmanagement und Software- Produktlinien
  • Kooperation mit einem Berliner Softwareunternehmen zur Entwicklung innovativer Software-Architekturanalysen zur Qualitätssicherung eingebetteter Systeme
  • Beratung eines großen deutschen Automobilzulieferers in grundlegenden Fragen des Konfigurationsmanagements von Modellen für die modellgetriebene Entwicklung eingebetteter Systeme
  • Unterstützung eines global tätigen Elektrotechnik-Konzerns in der modellbasierten Entwicklung von Softwarekomponenten für eine neue Generation von internetbasierten, multimedialen Hauskommunikationssystemen
MEHR ANZEIGEN
Profilbild Eisert
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Informatik

Visual Computing

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Der Lehrstuhl Visual Computing befasst sich mit der Entwicklung neuer Verfahren zur Analyse und Synthese von Bild- und Videodaten. Diese beinhalten Methoden zur Schätzung von Form, Material, Bewegung sowie Deformation von Objekten und Personen aus Einfach- und Mehrkamerasystemen. Zusammen mit nationalen und internationalen Partnern werden die Algorithmen in Systemen aus den Anwendungsbereichen Multimedia, VR/AR, Industrie, Medizin und Sicherheit eingesetzt.

Wissenschaftliche Dienstleistungen
  • Diverse Kameras
  • Multispektralsensoren, 3D Sensoren
  • Beleuchtung und Kalibriersysteme
  • Entwicklung neuer Verfahren zur automatischen Inspektion und Schadensklassifikation von Abwasserkanälen zusammen mit einem Wasserversorgungsunternehmen
  • Entwicklung von Augmented Reality Verfahren zur Fertigungsunterstützung in der Automobilindustrie
  • Untersuchungen multispektraler Bildgebung für die Gewebeklassifikation zusammen mit einem Medizintechnikhersteller
MEHR ANZEIGEN
Profilbild Schmidt
Lebenswissenschaftliche Fakultät
Albrecht Daniel Thaer-Institut für Agrar- und Gartenbauwissenschaften

Biosystemtechnik

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Die Biosystemtechnik arbeitet an der Schnittstelle zwischen Ingenieurwissenschaften und biologischen Produktionsprozessen. Prof. Schmidt und seine Arbeitsgruppe entwickeln ingenieurtechnische Lösungen für eine nachhaltige Produktion von pflanzlichen Agrarprodukten und Technologien für eine sichere und saubere Umwelt. Es entstehen Innovationen im Pflanzenbau in Gewächshäusern, Freiland und anderen intensiven Pflanzenproduktionssystemen. Im Fokus liegen alternative Energieversorgungskonzepte (Niedrigenergiegewächshäuser) und geschlossene Stoffkreisläufe für den intensiven Pflanzenbau (Wasserhygiene, Sensorik und Algorithmen für die vollautomatische Nährlösungsversorgung von Pflanzen in geschlossenen Kreisläufen). Zentrale Arbeitsschwerpunkte sind die Sensorentwicklung bei der Gasanalytik und Klimamesstechnik sowie die Entwicklung von Software für die Entscheidungsunterstützung in Automationssystemen. Es werden energetische Bewertungen von Produktionsanlagen oder Teilsystemen vorgenommen und Prozessanalysen erstellt.

Wissenschaftliche Dienstleistungen
  • Versuchsgewächshäuser mit Energie- und Stoffstromanalytik, CO2-Anreicherung, Kunstlicht und Fogsystemen
  • Pflanzenmonitore für die Dauermessung von Fotosynthese, Transpiration, Gewebetemperaturen, Stomataleitwerten, Klimamesstechnik, Gasanalytik (CO2, Ethylen), Bodenfeuchtesensoren
  • Frei programmierbares Automatisierungssystem für die Klima- und Prozesssteuerung in Gewächshäusern
  • G.F. Schreinzer Positronik, Steinbeis GmbH & Co. KG: Entwicklung eines Automatisierungssystems für Gewächshäuser auf der Basis von Messinformationen von Pflanzen (Phytocontrol)
  • Steinbeis GmbH & Co. KG: Nationales Verbundprojekt „Zukunftsinitiative Niederigenergiegewächshaus“ (ZINEG)
  • Pronova Analysentechnik GmbH & Co. KG: Entwicklung ionenselektiver Sensoren zur kontinuierlichen Erfassung von Ionenanteilen in zirkulierenden Nährlösungsversorgungssystemen; Entwicklung eines Messgerätes zur Analyse phytometrischer Reaktionen an Pflanzen
  • newtec Umwelt­technik GmbH: Entwicklung eines rezirkulierenden Bewässerungssystems mit vermindertem phytosanitärem Risiko in Gewächshäusern
MEHR ANZEIGEN
Profilbild Grunske
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Informatik

Software Engineering

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Am Lehrstuhl für Software Engineering arbeitet Prof. Grunske mit seinem Team an Softwaretechnikmethoden insbesondere im Bereich der automatisierten Entwicklung und Qualitätskontrolle von Softwaresystemen. Ein weiter Schwerpunkt ist die Arbeit mit probabilistischen Techniken, auf dessen Grundlage wahrscheinliche und weniger wahrscheinliche Verhaltensweisen eines Programms modelliert werden können, was es erlaubt, Anomalien besser zu entdecken und zu beheben. Zum Einsatz kommen solche statistischen Modelle u. a. beim Monitoring und Debugging von Programmen während der Laufzeit sowie beim Softwaretest – so wird die Entwicklung sicherer und zuverlässiger Softwaresysteme unterstützt. Weitere Forschungsschwerpunkte von Prof. Grunske sind die Entwicklung von Methoden, mit der Qualitätsanforderungen an ein Softwaresystem präzise definiert werden können; die Formalisierung von Verifikationsbedingungen sowie die (technische) Sicherheit in eingebetteten Systemen und Prozess- und Performancemanagement.

Wissenschaftliche Dienstleistungen
  • Softwaretechnik
  • Test und Verifikation
  • Statistik/Wahrscheinlichkeitstheoretische Methoden
  • Formalisierung von Anwendungszenarien in Zusammenarbeit mit der TWT GmbH im Projekt „Safe.Spec: Qualitätssicherung von Verhaltensanforderungen“
  • Gewinnung probabilistischer Modelle aus Softwaresystemen, die im Software-Engineering-Prozess als Spezifikation weiterverwendet werden können, im Projekt „EMPRESS: Extracting and Mining of Probabilistic Event Structures from Software Systems”
  • Entwicklung von Evaluationsmöglichkeiten probabilistischer Modelle und Machine-Learning-basierten Techniken für die Transformation von Modellen im Projekt „ENSURE-II: ENsurance of Software evolUtion by Run-time cErtification”
MEHR ANZEIGEN
Profilbild Freytag
Mathematisch-Naturwissenschaftliche Fakultät
Institut für Informatik

Datenbanken und Informationssysteme

Share Profile Link
Profile link copied.
Profil Link teilen
Profil Link wurde kopiert.
Expertise

Prof. Freytag ist Inhaber des Lehrstuhls für Datenbanken und Informationssysteme (DBIS). Zu seinen Forschungsinteressen gehören alle Aspekte der Verarbeitung von Abfragen und Abfrageoptimierung in (objekt-) relationalen Datenbanksystemen, neue Entwicklungen im Datenbankbereich (z.B. semi-strukturierte oder graph-basierte) Daten, Datenqualität, Big Data Analytics sowie Schutz der Privatsphäre im Kontext von Datenbanksystemen. Darüber hinaus ist er in vielen Kooperationen zur Nutzung von Datenbanktechnologie in Anwendungen wie Geoinformationssysteme (GIS), Bioinformatik, Physik sowie Life Sciences involviert. In den letzten Jahren erhielt Prof. Freytag viermal den IBM Faculty Award für kooperatives Arbeiten in den Bereichen Datenbanken, Middleware und Bioinformatik/Life Sciences, sowie in 2009 und 2010 den HP Labs Innovation Research Awards für seine Forschung im Datenbankbereich und Cloud Computing. Er war 2003 Mit-Organisator der VLDB (Very Large Data Bases) Konferenz in Berlin, der wichtigsten Datenbankkonferenz weltweit, und gleichzeitig Mitglied der VLDB-Stiftung (VLDB Endowment Inc.) von 2001 bis 2007. Prof. Freytag ist seit 2009 Sprecher des Fachbereichs DBIS der Gesellschaft für Informatik (GI).

Wissenschaftliche Dienstleistungen
  • Große Server Linux/AIX mit DBMS IBM DB2
  • Clusterrechner (128 Kerne)
  • 30TB Speicherkapazitäten
  • Namhafter amerikanischer IT-/Datenbankhersteller: Verbesserung des existierenden DBMSs im Bereich der Anfrageoptimierung; Erweiterung existierender ETL-Tools
  • Namhafter amerikanischer IT-/Datenbankhersteller: Erweiterung der DBMS-Funktionalität, Erarbeitung von Vorschlägen zur Leistungsverbesserung; Vorschläge zur Weiterentwicklung existierender DBMS-Produkte
  • Namhafter deutscher Softwarehersteller: Mehrere Jahre begleitende Beratung zur Leistungsverbesserung des existierenden DBMS
  • Namhafter deutscher Großkonzern: Entwurf und Entwicklung einer Anfrageoptimierungskomponente für das LDAP-Produkt des Unternehmens
  • Beratung verschiedener KMU in Deutschland im Bereich der Daten- und Prozessmodellierung, Einsatz von DBMS-Technologie; Nutzung von DBMS-Technologie in firmeneigenen Produkten; Strategieberatung zum langfristigen Einsatz von DBMS-Technologie
MEHR ANZEIGEN