Am 10. Juli fanden zwei Antrittsvorlesungen des Instituts für Mathematik statt. Privatdozent Dr. Kshitij Kulshreshtha und Junior-Professorin Dr. Stefanie Rach stellten dort ihre Forschungsschwerpunkte und -ziele KollegInnen und Studierenden der Mathematik sowie Interessierten anderer Fachbereiche vor.
Jun.-Prof. Dr. Stefanie Rach sprach in ihrem Vortrag „Bedingungsfaktoren für erfolgreiche Lehr-Lern-Prozesse am Übergang von der Schule in ein Mathematikstudium“ über hohe Abbruchquoten im Mathematikstudium und die Rolle, die suboptimale mathematische Lehr-Lern-Prozesse in der Studieneingangsphase dabei spielen. Welche Faktoren aber bedingen einen geeigneten Lernprozess? Nach Angebot-Nutzungsmodellen sind sowohl Bedingungsfaktoren auf individueller Ebene als auch auf der Ebene des Lehrangebots und deren gegenseitige Passung zu untersuchen. Stefanie Rach stellte anhand zweier ausgewählter empirischer Studien die Bedeutung individueller Merkmale eines erfolgreichen Lernprozesses heraus. Dies gab Anlass zu der Diskussion, ob die Ergebnisse einen Beitrag zur Lösung des Problems der Abbruchquoten leisten könnten.
Neben der Identifikation von Faktoren, die erfolgreiche, mathematische Lehr-Lern-Prozesse bedingen, und der Beschreibung mathematischer Lehr-Lern-Prozesse in einem Mathematikstudium konzentriert sich die Forschung von Stefanie Rach auf das Lernen aus Fehlern.
In seinem Vortrag „Effizientere Ableitungsberechnung für Optimierungsprobleme in Ingenieurwissenschaften und im maschinellen Lernen“ ging Privatdozent Dr. Kshitij Kulshreshtha auf viele mathematische Fragestellungen der modernen Ingenieurwissenschaften ein. Dort stößt man häufig auf eingeschränkte Optimierungsprobleme mit differentialalgebraischen Nebenbedingungen, welche in der Industrie häufig mit Hilfe der Modellierungssprache Modelica simuliert werden. In Wissenschaft und Wirtschaft befasst man sich zudem zunehmend mit dem maschinellen Lernen, wo die Algorithmen aktuell meist mit Hilfe der Programmiersprache Python implementiert werden. Im Hintergrund solcher Programmiersprachen liegt ein stochastisches Optimierungsproblem für die Festlegung von Parametern, welches durch die effiziente Berechnung von Ableitungen gelöst werden kann. Hierbei ist die Benutzung des algorithmischen Differenzierens von Vorteil. Algorithmisches Differenzieren mit Hilfe der ADOL-C Bibliothek konzentriert sich traditionell auf die im wissenschaftlichen Rechnen vielverbreiteten Programmiersprachen Fortran und C/C++. Durch die Nutzung von ADOL-C zur Ableitungsberechnung bei Simulationen in OpenModelica oder bei Machine-Learning-Algorithmen in Python können Optimierungsaufgaben effizienter gelöst werden.
Kshitij Kulshreshthas aktuelle Forschungsinteressen umfassen die Modellierung von physikalischen Phänomenen mit Hilfe von Partiellen Differentialgleichungen oder Differential-Algebraischen Systemen für verschiedene Anwendungen sowie die Simulation solcher Systeme auf dem Computer. Die Einbettung einer solchen Simulation in Optimierungsverfahren und die effiziente Berechnung der dazu notwendigen Ableitungen sind ein Hauptteil seiner Forschung. Insbesondere interessiert er sich dabei für die Form- und Topologieoptimierung in geeigneten Anwendungsfeldern.