Big Data – Anwendungen

Anwendungen 

In der Studie Big Data im Freistaat Bayern – Chancen und Herausforderungen finden Sie zehn Fallstudien. Die Studie können Sie als gedrucktes Exemplar bestellen.

 

Prozesse optimieren

EXASOL - In-Memory-Datenbank

Prozesse optimieren

EXASOL - In-Memory-Datenbank

EXASOL ist eine leistungsstarke In-Memory-Datenbank, die speziell für Analysezwecke entwickelt wurde. Von kommerziellen Datenanwendungen bis hin zu komplexen Analysen kann EXASOL große Datenvolumen in Echtzeit analysieren sowie Business Intelligence Anwendungen und Berichte beschleunigen. Die analytische Datenbank arbeitet blitzschnell mit linearer Skalierbarkeit und zeichnet sich neben der In-Memory-Komponente durch folgende Hauptmerkmale aus:

  • Clustering,
  • massiv parallele Datenverarbeitung (MPP),
  • spaltenorientierte Speicherung und
  • intelligente Kompressionsalgorithmen.

EXASOL ist kompatibel mit vorhandenen Anwendungen und Datenstrukturen, so dass sich die Lösung ideal für das Berichtswesen und zukunftsorientierte Analyseverfahren großer Datenmengen eignet

Nutzen für den Kunden

In Zeiten des globalen Wettbewerbs sind fundierte Entscheidungsgrundlagen gefragt. Mit viel Leidenschaft und Engagement unterstützt EXASOL Unternehmen dabei, die Geschäftstätigkeit durch ein unvergleichlich schnelles Auswerten von Daten und Informationen intelligenter zu gestalten und damit den Gewinn zu steigern.

Big Data Methode

  • Analytische Architekturen

 

Prozesse optimieren

Logivations - Logistikdaten 

Prozesse optimieren

Logivations - Logistikdaten 

Logivations – Logistikdaten für Managemententscheidungen

Der Bereich Logistik ist für nahezu alle Unternehmen von hoher Bedeutung. Jährlich fallen vielfach Milliarden von Datensätzen an, die oftmals nur unzureichend genutzt werden. Kernkompetenz von Logivations sind modernste mathematische Algorithmen für die Logistik. Neben der Analyse und Optimierung von Warenströmen unterstützt das Unternehmen auch sämtliche Bereiche der Intralogistik, z. B.

  • eine erweiterte Prozesskostenanalyse,
  • die Personalplanung,
  •  die Produktplatzierung oder auch
  • die Behälteroptimierung.

Dazu hat Logivations die webbasierte Analyse-, Simulations- und Optimierungsplattform W2MO entwickelt. Bisher nutzen weltweit mehr als 30.000 professionelle Anwender W2MO direkt aus der Cloud. 2013 wurde Logivations vom USAnalysten Gartner Inc. zum „Cool Vendor“ gewählt.

Nutzen für den Kunden:

  • W2MO erlaubt eine durchgängige Transparenz über alle Bereiche der Logistik und Supply Chain
  • Fundierte strategische Entscheidungen
  • Auf Basis der gesammelten Daten werden Optimierungsvorschläge für eine schnelle Effizienzsteigerung – vom Logistiknetzwerk über die Lagerbelegung bis hin zum Personaleinsatz in der Intra-Logistik – berechnet.
  • Direkte Integration mit Google Maps und SAP
  • Cloud-basiert

Big-Data-Methoden:

  • Visual Analytics
  • Maschinelles Lernen
  • Neuronale Netzwerke

 

Prozesse optimieren

Soley – agile Datenanalyse für Ingenieure

Prozesse optimieren

Soley – agile Datenanalyse für Ingenieure

Haben Sie die Wirtschaftlichkeit, Potentiale und Risiken Ihres Produktportfolios im Griff? Soley befähigt Ihre Mitarbeiter, vorhandene Daten automatisiert auszuwerten, wertvolle Einsichten zu gewinnen und so ihr volles Potenzial zu entfalten.

Soley überzeugt mit

  • agilem Einstieg durch die flexible Einbindung in bestehende IT-Landschaften,
  • durchgängigen Workflows vom Datenimport bis zur interaktiven Visualisierung und
  • schnellem Return on Invest

Im Umfeld stark vernetzter Datenstrukturen spielt Soley seine Stärken voll aus: So identifizieren Sie Abhängigkeiten, Muster, Häufungen und Trends. Typische Anwendungen sind

  • Portfoliomanagement
  • Gleichteilanalysen
  • Prozessüberwachung
  • Variantenmanagement
  • Wissenslandkarten
  • Risikoanalysen
  • Supply-Chain-Management

Risiken und Potenziale rechtzeitig sehen und managen – das ist der entscheidende Wettbewerbsvorteil in der digitalisierten Industrie:

  • Behalten Sie Prozesse, Produkte und Projekte trotz Komplexität im Griff.
  • Mit Analyseworkflows auf Knopfdruck entscheiden Sie schneller und besser.
  • Beschleunigen Sie die Entwicklung neuer Produkte und -Dienstleistungen.
  • Sparen Sie Zeit und Kosten durch die Automatisierung des Datenhandlings.

Big Data Methoden:

  • Visual Analytics
  • Regelbasierte Graphenanalyse
  • Analytische Architekturen

 

Digitalisierung 

3D Reality Maps – Echtzeit 3D Geodatenvisualisierung und Analyse

Digitalisierung 

3D Reality Maps – Echtzeit 3D Geodatenvisualisierung und Analyse

Satelliten, Flugzeuge und Drohnen liefern riesige Mengen an Luftaufnahmen, aus denen sich unsere Umwelt 3 dimensional rekonstruieren lässt. Aus stereoskopischen 3D Punktwolken werden texturierte Oberflächen von Landschaften, Städten und einzelnen Gebäuden berechnet. Nur durch intelligente Datenreduktion mit Big Data lassen sich diese gewaltigen Datenmengen analysieren und auf PC’s, Smartphones und Virtual Reality Brillen performant darstellen.

Mit Hilfe einer von 3D RealityMaps entwickelten Software wird es möglich komplexe raum-zeitliche Zusammenhänge zu analysieren und zu visualisieren. Die Anwendungsgebiete reichen vom Umweltmonitoring (z. B. Auswirkungen des Klimawandels) über die Früherkennung von Naturgefahren bis hin zur 3D Analyse von Windenergieanlagen, zur Unterstützung von (Berg-) Rettungseinsätzen und innovativen Apps für die Outdoor-Navigation im Gebirge.

Nutzen für den Kunden:

Der Nutzen für den Kunden ergibt sich aus der interaktiven Echtzeit- Visualisierung komplexer Daten. Räumliche Zusammenhänge werden erkennbar, zeitliche Veränderungen verstehbar. Aus Basis dieses Erkenntnis lassen sich bessere strategische Entscheidungen ableiten und neue Geschäftsmodelle entwickeln.

Big-Data-Technologien:

  • Visual Analytics
  • Data Reduction

 

Digitalisierung und IKT

SHORE TM Anonyme Video- analyse für Big Data Anwendungen

Digitalisierung und IKT

SHORE TM Anonyme Video- analyse für Big Data Anwendungen

Unsere Softwarelösung SHORETM  ermöglicht die robuste Echtzeitauswertung von Personen in Videos, hinsichtlich Geschlecht, Alter und gezeigten Emotionen.

Durch die extrem ef ziente Implementierung lässt sich SHORETM auch auf intelligenten Sensorkonten betreiben und kann anonymisierte, datenschutzrechtlich geprüfte Metadaten für viele Big Data Anwendungen bereit-
stellen. Im Einsatz befindet sich SHORETM vor allem im Retail Analytics Bereich am POS, in der Marktforschung und für smarte Außenwerbung. Hierbei werden die Daten mit anderen Daten verknüpft, um u. a. Cross-Selling Potentiale im stationären Einzelhandel besser abschöpfen zu können. Weitere Einsatzgebiete finden sich beispielsweise auch im Bereich Cognitive Robotics und in Automotive Anwendungen (Analyse des Fahrerverhaltens).

Nutzen für den Kunden

Ein entscheidender Wettbewerbsvorteil z. B. für den Einzelhandel: Das Erfassen und die Analyse von Kunden- strömen in Echtzeit. Bei unserem Partner Pyramics können Sie sich davon überzeugen. Intelligente Kamerasensoren ermöglichen eine statistische Auswertung der Besucher hinsichtlich Laufweg, Mimik, Alter- und Geschlechterverteilung. Durch Big-Data Analyse können u. a. Preise am POS in Echtzeit angepasst oder Werbung zielgruppen- und kontextgerecht ausgespielt werden.

Big Data Methode

  • Maschinelles Lernen 

 

Luft- und Raumfahrttechnologie

Big Data & VR

Luft- und Raumfahrttechnologie

Big Data & VR

Bei der 3D-Digitalisierung entsteht Big Data in Form von hoch verdichteten Punktwolken. VR-Technologien und WebGL-Visualisierungen erfordern jedoch flüssig dargestellte 3D-Szenen, das gilt besonders für mobile VR-Applikationen mit Smartphones. Um diese performanten VR-Visualisierungen zu realisieren, muss sich Big Data einer Reduktion unterziehen, wobei die dichten Punktwolken auf einen Bruchteil ihrer Ursprungsauflösung reduziert werden. Das geschieht mit diversen Reduktionsalgorithmen und Workflows. Im Future Cube sehen Sie eine Gegenüberstellung von der nativen Digitalisierungsquelle und einem reduzierten und optimierten 3D-Modell für den VR-Einsatz. In unserem Mini-Holdo- deck können Sie in eine virtuelle Realität abtauchen. Ein autostereoskopischer Screen von der Firma Seefront zeigt eine Architekturvisualisierung in Echtzeit.

Nutzen für den Kunden

Der Auftraggeber erhält diverse Datensätze für die unterschiedlichsten Anwendungen. Der native Datensatz (Big Data) repräsentiert die höchste Detailstufe und dient der präzisen digitalen Konservierung und Archivierung einer Architektur, eines Exponats oder einer Industrieanlage. Die 3D-Modelle können auch in verschiedenen Reduktionsstufen, ohne wesentlichen Qualitätseinbußen, für Planungszwecke und Infotainment-Anwendungen geliefert werden.

Big Data Methoden

  • Datenreduktion

  • Deduktion und constraint-basiertes Schließen durch Induktion und Abduktion

  • Analytische Architekturen 

 

Intelligente Verkehrssysteme und zukünftige Mobilität

TerraLoupe Online-Viewer

Intelligente Verkehrssysteme und zukünftige Mobilität

TerraLoupe Online-Viewer

Computer-Visiongestützte, automatische Objekterkennung und Analyse von Luftbildern

TerraLoupe analysiert Luftbilddaten großer Landstriche mittels künstlicher Intelligenz. Die Nutzung von Deep-Learning-Verfahren ermöglicht es, nun auch relativ kleine Objekte wie etwa Dachfenster oder Straßenschilder in großen Flächen automatisch zu erkennen. Es entsteht eine Plattform zur Digitalisierung der Außenwelt, welche die erkannten Objekte georeferenziert und perspektiv-
isch mit weiteren Informationen zusammenführen kann. Kunden aus unterschiedlichen Branchen können die Daten mit ihren Systemen verbinden oder mittels des dargestellten Online-Viewers analysieren.

Nutzen für den Kunden

(Rück-)Versicherungen können ihre Risiken in der Gebäudeversicherung städteübergreifend besser abschätzen, weil etwa Dachfenster oder Wintergärten großflächig an und um Häuser automatisch erkannt werden. Automobilhersteller kommen schneller und günstiger zu hochgenauen Straßenkarten für Fahrerassistenzsysteme und autonomes Fahren inklusive Objektinformationen zur Verkehrsinfrastruktur.

Big-Data-Technologien

  • Visual Analytics
  • Neuronale Netze
  • Maschinelles Lernen 

 

Energiesystemtechnologien

Daten für die energetische Raumplanung

Energiesystemtechnologien

Daten für die energetische Raumplanung

Erneuerbare Energien und die Steige­rung der Energie-
effizienz hängen in ihrer Leistungsfähigkeit sehr stark vom Einsatzort ab. Deswegen muss die Energieplanung ein Teil der Raum­planung und die Raumplanung ein Teil der Energieplanung werden. Die Entwicklung des Energienutzungs­ plans in Bayern als Ergänzung zum Flächennutzungsplan ist dabei ein erster wichtiger Schritt. Der Lehrstuhl für Erneuerbare und Nachhaltige Energiesysteme der TU München erforscht Methoden zur informations­ technischen Abbildung von Energie­ systemen im Sinne der Prozesskette Datenerfassung – Systemanalyse – Potenzialanalyse – Strategieentwick­lung – Umsetzung und Betrieb. Der Fokus liegt dabei auf Algorithmen zur Identikation und Bewertung opti­mierter Handlungsstrategien und dem Monitoring in der Betriebsphase.

Nutzen für den Kunden

Die Entwicklung einer Umgebung zur Bereitstellung dieser Daten, die ins­ besondere fexibel neue Datenquellen einbinden kann, wird dabei zentrale Aufgabe der Energiewende. Erst dann können kosteneffiziente Planungs­werkzeuge entwickelt und angewandt werden. Die neuen Ansätze gehen dabei Hand in Hand mit anderen Pla­nungsbereichen wie Verkehr, Abwas­sser oder Abfall.

Big-Data-Methoden

  • Optimierungs­ und Simulations­ werkzeuge für Variantenanalyse und Prädiktion
  • Methoden für Data­Mining energie­ systemrelevanter Informationen
  • In­Memory­Lösungen zur web­ basierten Echtzeit­Analyse 

 

Energiesystemtechnologien

Smart City Models

Energiesystemtechnologien

Smart City Models

Smart Cities mit 3D-Stadtmodellen

Flächendeckende semantische 3D-Stadtmodelle erlauben eine gebäudescharfe Energiebedarfs- 
berechnung. Kommunen können damit die Energieversorgung bedarfsgerechter planen
und Über- bzw. Unterkapazitäten vermeiden.

Die Collaborative Design Platform vereint nahtlos analoge und digitale Entwurfsmethoden in einem interaktiven Echtzeitsystem zur Entscheidungs-
unterstützung bei der Städteplanung.

Das Projekt Wissensbasierte Brückenkonstruktion macht große Mengen von Bestandsdaten bestehender Infrastrukturbauwerke mittels Verfahren der künstlichen Intelligenz für Konstrukteure neuer Brücken nutzbar.

Bei der sensorgestützten Bauprozessoptimierung werden automatisch generierte 3D-Punktwolken evaluiert. Sie erlaubt eine reaktive Prognose von Bauzeiten und -kosten beispielsweise bei Tiefbauarbeiten.

Um Städte so zu gestalten und zu verwalten, dass Fehlentwicklungen verhindert werden, die Städte funktionsfähig, sicher und resilient bleiben, sowie exibel auf Veränderungen der Rahmenbedingungen reagieren können, müssen Politiker, Bürger, Stadtplaner, Architekten, Soziologen, vor allem aber auch Ingenieur- und Naturwissenschaftler, eng kooperieren.

Am Leonhard Obermeyer Center der TU München werden dafür die digitalen Modelle der Zukunft entwickelt.

Big-Data-Methoden

  • Maschinelles Lernen
  • Visual Analytics
  • Informationsextraktion und Text Mining 

 

Nanotechnologie

Adsorptionsprozess in virtueller Realität

Nanotechnologie

Adsorptionsprozess in virtueller Realität

Das Exponat zeigt den physikalisch- chemischen Prozess der Adsorption eines CO2 Moleküls auf einer Calciumoxid-Oberfläche, welcher durch eine Molekulardynamik-Computersimulation modelliert wurde. Hierbei wurde das Simulationspaket FHI-aims des Fritz-Haber-Instituts der Max-Planck-Gesellschaft eingesetzt.

Die Simulation umfasst 35 Atome mit quanten-
mechanischer Behandlung der Elektronendichte, die zur Visualisierung auf einem Gitter, welches die Moleküle in gleichen Abständen anordnet, mit 51x51x97 Zonen repräsentiert ist. 423 Zeitschritte wurden berechnet. Die Daten wurden nachbearbeitet, um Flächen, welche gleiche Elektronendichte haben, zu erstellen. Diese werden nun mit Hilfe eines Virtual Reality Systems (HTC Vive) dargestellt und erlauben es dem Benutzer, den Datensatz zu betreten und frei zu erkunden.

Nutzen für den Kunden

Häufig werden solche Prozesse als Film oder auf großen Rechnersystem nahe Echtzeit visualisiert. Hiermit erreicht man gewünschte Darstellungsqualitäten ist aber vielfach in der Interaktion eingeschränkt. Der hier präsentierte Ansatz erlaubt es in Echtzeit durch die Daten zu navigieren und die Perspektive frei zu wählen. Die Explorative Analyse wird durch Änderung der Perspektive bei Kopfbewegung unterstützt.

Big Data Methoden

  • Visual Analytics 

 

Gesundheits- und Medizintechnologie

Automatisierte Laborlogistik Flusssteuerung der F&F GmbH

Gesundheits- und Medizintechnologie

Automatisierte Laborlogistik Flusssteuerung der F&F GmbH

Die weltweit, u. a. in Australien, in Großlaboren eingesetzte Software zur intelligenten Flusssteuerung von F&F ist ein Beispiel für bereits umgesetztes Big Data.

Es werden massiv-parallel Steuerungsdaten aufge-
nommen, die durch Ergänzung mit weiteren Daten aus verschiedensten Quellen kombiniert und analysiert werden können. Die so gewonnenen Informationen stehen als Grundlage für strategische Unternehmens-
entscheidungen zur Verfügung. Sie ermöglichen schnelle Reaktionen in einem dynamischen Markt.

Nutzen für den Kunden

  • Analyse von massiv-parallel aufgenommenen Sensordaten
  • Datenmonitoring und Reporting von Echtzeitdaten
  • Integrierte Selbstdiagnose und Selbstoptimierung
  • Health Check
  • Lastpro l-Detection
  • Browserbasiertes Prozessmonitoring

Big-Data-Methoden

  • Maschinelles Lernen
  • Visual Analytics 

 

Biotechnologie

Smart Sensor Networks für die Biotechnologie

Biotechnologie

Smart Sensor Networks für die Biotechnologie

essentim bietet ein komfortables, kabelloses System zur Überwachung biotechnologischer Prozesse ohne die gewohnten Arbeitsabläufe zu beeinflussen. Die zugehörigen Sensoreinheiten sind auf Praxistauglichkeit im biotechnologischen Umfeld optimiert und werden direkt an einer Probe angebracht. Dies ermöglicht eine lückenlose Überwachung der klimatischen und biochemischen Einflüsse über den gesamten Versuchszeitraum.

Die zugehörige Software bietet umfangreiche Funktionen zur Echtzeitüberwachung und kann Abweichungen unmittelbar erkennen. Zusätzlich unterstützt sie die Ableitung einer teilautomatisierten, probenbezogenen Dokumentation. Die Erweiterung einer bestehenden Infrastruktur ist dank standardisierter Schnittstellen ebenfalls denkbar.

Effizienzsteigerung

Mit den durch das essentim Sensornetzwerk erfassten Daten – direkt am oder im „Point of Interest“ – wird eine Basis geschaffen, die mittels Big Data Analytics eine echte Vergleichbarkeit und Transparenz biotech-
nologischer Methoden ermöglicht. Relevante Prozess-
abweichungen können dadurch schneller identifiziert und eine Verbesserung der Prozessabläufe kann erreicht werden.

Big-Data-Methoden

– Maschinelles Lernen
– Neuronale Netzwerke
– Analytische Architekturen 

 

Gesundheits- und Medizintechnologien

Kunststoffe 4.0 SmartMold: Fertigung von IoT- Kunststoffbauteilen

Gesundheits- und Medizintechnologien

Kunststoffe 4.0 SmartMold: Fertigung von IoT- Kunststoffbauteilen

Die Fertigung von Kunststoffbauteilen mit Integration elektronischer IoT-Komponenten ist eine wesentliche Voraussetzung für den Erfolg des Internet of Things (IoT). Ziel des Projektes SmartMold ist die Evaluierung und Entwicklung geeigneter Verfahren, die eine Massenfertigung von IoT-Kunststoffbauteilen erlauben.

Themen

– Belastbarkeit im Fertigungsprozess
– Sicherstellung der Funktion
– Beständigkeit im Einsatz

SmartMold beantwortet

– Welche Fertigungsverfahren kann ich nutzen?
– Was muss ich bei der Konstruktion des Bauteils
   beachten?
– Was muss ich bei der Konstruktion des Werkzeugs
   beachten?
– Welche Werkstoffe kann ich verwenden?
– Welche elektronischen Komponenten kann ich
   einsetzen?
– Wie ermögliche ich den Datenaustausch?

Big-Data-Methoden

- Analytische Architekturen 

 

Energiesysteme, Energie(system)technologien

Secure Industrial Visibility – Der Weg zur Industrie 4.0

Energiesysteme, Energie(system)technologien

Secure Industrial Visibility – Der Weg zur Industrie 4.0

Unternehmen haben häufig mehrere Produktions-
standorte und können diese mittels Fernwartung zentral steuern und überwachen. Dies spart Kosten und erlaubt die Optimierung von Prozessen und Produkten. G&D bietet mit CPS Remote eine hochsichere Verbindung mit Produktionssystemen von Herstellern unterschied-
lichster Branchen. Der Remote-Zugriff ermöglicht nahezu in Echtzeit auf Support-Anfragen zu reagieren. Zudem lassen sich Problemanalysen erstellen und Lösungen finden, ohne dass ein Service-Ingenieur direkt vor Ort sein muss. Die Daten können zudem online abgerufen werden, wobei der Kunde definiert, wem Zugang gewährt wird und welche Informationen einsehbar sind. Jegliche Kommunikation läuft verschlüsselt ab: Nur privilegierte Anwender können auf die zuvor freigegebenen Daten zugreifen.

Nutzen für den Kunden

In Zeiten von Industrie 4.0 sehen sich viele Unternehmen mit der Herausforderung konfrontiert, geeignete Sicherheitsmaßnamen für die veränderten Anforder-
ungen eines vernetzten Produktionsumfeldes zu finden. Mit der CPS-Lösung bietet G&D eine ganze Reihe an Sicherheitslösungen, mit deren Hilfe die immer größer werdenden Datenströme effektiv abgesichert, Angriffe erkannt und verhindert werden können.

Big-Data-Technologien

– Visual Analytics
– Maschinelles Lernen 
 

Industrielle Produktionstechnologien

MindSphere Siemens Cloud for Industry

Industrielle Produktionstechnologien

MindSphere Siemens Cloud for Industry

Siemens Cloud for Industry, eine offene Cloud-Plattform für das industrielle IoT. Nutzen Sie Ihre Maschinen- und Anlagendaten und generieren Sie daraus einen Mehrwert.

Mit MindSphere setzen Sie das volle Potenzial Ihrer Anlage frei und haben die Möglichkeit, datengetriebene Services und völlig neue Geschäftsmodelle zu entwickeln.

Erfahren Sie anhand von praktischen Beispielen, wie MindSphere heute schon Kunden dabei hilft, Daten aus ihren Maschinen und Anlagen zu nutzen – beispielweise für vorausschauende Instandhaltung oder den optimierten Einsatz von Ressourcen.

Mind your digital future: MindSphere – Siemens Cloud for Industry.

Nutzen für den Kunden

MindSphere im Überblick:

  • Cloud für die Industrie mit Open Application Interface für individuelle Kundenanwendungen
  • Open Standard (OPC) für die Konnektivität von Siemens und 3rd-Party-Produkten
  • Optionale Cloud Infrastructure: Public Cloud, Private Cloud oder On-Premise Solution
  • Plug&Play Connection mit Siemens- Produkten (Engineering im TIA Portal)
  • Transparentes Pay-per-Use-Preismodell
  • Möglichkeiten für innovative Service- und Geschäftsmodelle

Big-Data-Technologien

  • Cloud Foundry
  • Maschinendaten-Konnektivität
  • Visual Analytics 

 

Neue Werkstoffe und Materialien

VisCheck Hole Prozessoptimierte Qualitätskontrolle für alle Materialien

Neue Werkstoffe und Materialien

VisCheck Hole Prozessoptimierte Qualitätskontrolle für alle Materialien

Analyse-Tool für die Zerspanung insbesondere von Carbon, das über Kamerabilder Daten der einzelnen Produktionsschritte generiert.

Die Software erkennt das optimalste Ergebnis, lernt und empfiehlt in der Folge das passende Werkzeug zum entsprechenden Material / Prozess. Die temporäre Veränderung des Materials beim Bearbeitungsprozess (Hitze, Nässe) wird berücksichtigt. Für CFK ist ein Benchmark der TU Wien implementiert, so dass erstmalig eine objektive Beurteilung gegeben ist. Die Vernetzung mit einem CAD-System ist möglich.

Nutzen für den Kunden
Kostenersparnis durch Einsatz von Handy, der Automatisierung von Rechenoperationen sowie der Reduktion der Ausschussrate. Der Ansatz ist auf andere Materialien und Prozesse übertragbar und kann neue Geschäftsmodelle (z. B. Reifen-App) ermöglichen.

Big Data Methoden
– Visual Analytics
– Maschinelles Lernen 

 

Industrielle Produktionstechnologien

Die vernetze Arbeitswelt von Morgen

Industrielle Produktionstechnologien

Die vernetze Arbeitswelt von Morgen

Forschung und Entwicklung für die Produktion der Zukunft

Die spürbare gesellschaftliche und wirtschaftliche Veränderung durch die Digitalisierung ist auch in der produktionstechnischen Forschung ein wichtiges Thema. Die rasant steigende Menge verfügbarer Daten und immer besser werdende Auswertungsmöglichkeiten liefern Erkenntnisse, die zur Flexibilitäts- und Ef zienzsteigerung in der Produktion genutzt werden können.

Als eine der großen produktionstechnischen Forschungseinrichtungen in Deutschland umfasst das iwb zwei Lehrstühle der Fakultät für Maschinenwesen der Technischen Universität München. Unter der Leitung von Prof. Gunther Reinhart und Prof. Michael F. Zäh finden Forschung, Lehre und Industrietransfer in den Bereichen Additive Fertigung, Werkzeugmaschinen, Füge- und Trenntechnik, Montagetechnik und Robotik sowie auf dem Gebiet Produktionsmanagement und Logistik statt. Das iwb arbeitet hierbei eng mit der Fraunhofer-Einrichtung für Gießerei-, Composite- und Verarbeitungstechnik IGCV in Augsburg zusammen.

Forschungsthemen Industrie 4.0 und Big Data

– Schnittstelle zwischen Werkzeug und Maschine
– Dynamische Routenzugoptimierung – Automatisiert Vernetzung und Fähigkeitenbereitstellung
– Der Mensch in der Produktion – Automatische Programmierung Cyber-Physischer-Systeme
– Big Data in der Produktionslogistik 

 

Digitalisierung und IKT

Connected Flipper – Internet of Things zum Anfassen

Digitalisierung und IKT

Connected Flipper – Internet of Things zum Anfassen

Um die Themen Internet of Things und Big Data greifbarer zu machen, haben wir ein uranaloges Produkt ausgewählt – einen Flipper aus dem Jahre 1987. Ziel ist es, diesen Flipper zu vernetzen, Daten zu erheben und prädiktive Modelle dafür zu entwi- ckeln. Mittels zweier Raspberry Pis vernetzen wir verschiedene Elemente des Flippers und erhalten so Daten über Auslösung der Flipperarme und Bouncer in Echtzeit. Eine Kamera erhebt zusätzlich unstrukturierte Bild- daten bezüglich des aktuellen Spiel- standes. Mit Machine-Learning-Algo- rithmen und maßgeschneiderten D3-Visualisierungen werden Spielver- läufe analysiert und dargestellt. Das Spiel am Flipper wird dabei in Echt- zeit auf einem Monitor visualisiert. Eine Mustererkennung identifiziert den aktuellen Spielstand auf Basis der aufgenommenen Bilddaten.

Nutzen für den Kunden

Die Vernetzung des Flippers ist die Grundlage für die Erfassung der Spieldaten. Durch die Auswertung dieser Daten können erstmals Erkenntnisse über das Spielverhalten und die Nutzer gewonnen und somit das Kundenverständnis verbessert werden. Die Spieler können bei- spielsweise in Spielertypen geclustert oder es können Prognosemodelle für den Highscore oder die Spieldauer entwickelt werden.

Big-Data-Methoden

  • Visual Analytics
  • Maschinelles Lernen

 

Biotechnologie

Cognitive Computing

Biotechnologie

Cognitive Computing

Cognitive Computing entwickelt Soft- ware-Tools, die dabei helfen, große Mengen an komplexen und zumeist unstrukturierten Daten zu verarbeiten und zu analysieren. Solche Daten- mengen sind gerade in der Medizin ein Thema. Hier gibt es für Intelligen- tes Daten-Mining vielfältige Einsatz- möglichkeiten: z. B. für die effiziente- re Entwicklung neuer Medikamente oder für Applikationen, die dem Arzt dabei helfen, schneller und genauer zu diagnostizieren und erfolgreicher zu behandeln.

Das Exponat gibt einen Einblick in die Möglichkeiten

  1. Einführung Cognitive Computing

  2. Text-Erkennung:

    Entity und Relation Extraction
    a. Relation Gen – Genprodukt
    b. Relation Krankheit – Symptom

  3. Bild-Erkennung: Histologische Analyse
    a. Mitose – Erkennung

Nutzen für den Kunden

Kunden (z. B. Ärzte oder Pharmafor- scher) können mithilfe der ExB Tools für Text- und Bilderkennung ohne weitergehende Software-Kompetenz große Mengen an komplexen, unstruk- turierten Daten schnell und hoher Präzision durchsuchen, analysieren und interpretieren.

Die Software wird nach den Anforde- rungen des Kunden entwickelt und ist dann intuitiv einfach zu bedienen und mit jedem gewöhnlichen Laptop mit Internetverbindung verwendbar.

Big Data Methoden

  • Cognitive Computing
  • Machine Learning, Neural Networks, Deep Learning
Digitalisierung und IKT

mofato – modern farmer’s tool

Digitalisierung und IKT

mofato – modern farmer’s tool

mofato ist ein digitales Werkzeug, das Landwirte mit praxisnahen Entscheidungshilfen unterstützt.

Die Online-Anwendung basiert aus- schließlich auf frei verfügbaren Geodaten. Die entsprechenden Satelliten-, Wetter- und Bodendaten werden z. B. von der Europäischen Raumfahrtagentur und dem Deutschen Wetterdienst zur Verfügung gestellt.

Das Bedienkonzept ist bewusst sehr einfach und übersichtlich gestaltet. So kann sich der Anwender in den einzelnen praxisrelevanten Rubriken schnell mit den Funktionalitäten und dem resultierenden Nutzen vertraut machen.

Alle notwendigen Prozesse der komplexen Datenauswertung geschehen im Verborgenen und sind zu 100 % automatisiert. mofato ist überall in Deutschland operationell verfügbar und innerhalb von wenigen Minuten nach der Anmeldung funktionsfähig.

Nutzen für den Kunden

Mit mofato beschleunigen und verbessern landwirtschaftliche Erzeuger wichtige strategische Entscheidungen wie die Bemessung und Verteilung von Dünger und Pflanzenschutzmittel.

Die optimierten Bewirtschaftungsmaßnahmen führen zu höheren Erträgen und damit zu einer Umsatzsteigerung. Gleichzeitig erfolgen eine Reduktion der Betriebsmittelkosten, eine immense Zeitersparnis und die Schonung der Umwelt.

Big-Data-Methoden

  • Maschinelles Lernen
  • Neuronale Netze
  • Deduktion und constraint-basiertes

Schließen durch Induktion und Abduktion

Energiesysteme, Energie(system)technologien

Smart Cities Prognose von Emissionen

Energiesysteme, Energie(system)technologien

Smart Cities Prognose von Emissionen

Weniger Emissionen im Straßenverkehr können die Luftqualität verbessern. Städte können dies erreichen, indem sie Staus durch intelligente Verkehrslösungen vermeiden oder das zu Fuß gehen oder Rad fahren attraktiver machen – dort wo die Luftverschmutzung am größten ist. Dazu müssen die Behörden den Verlauf der Schadstoffbelastung kennen. Modelle auf der Basis sogenannter Deep Neural Networks können verschiedene Emissionen vorhersagen. Das Exponat zeigt die Prognose

der Luftverschmutzung am Beispiel London. Das System lernt, wie die Emissionen von Kohlenmonoxid, Kohlendioxid oder Stickoxide mit Wetterdaten verknüpft sind, etwa Luftfeuchtigkeit, Sonneneinstrahlung oder Temperatur. Das Modell berücksichtigt auch tagesabhängige Verkehrslagen: Werktage, Brücken- und Feiertage sowie Events wie etwa Messen.

Nutzen für den Kunden

Die Prognosemodelle nutzen Smart Data-Anwendungen. Sie arbeiten mit einem neuen Verfahren des maschi- nellen Lernens, dem Deep Learning, das wesentlich mehr Ebenen künst- licher Neuronen verwendet. Jede Ebene befasst sich mit jeweils einer (anderen) Abstraktionsebene. Indem eine Vielzahl Ebenen miteinander ver- knüpft werden, sind die Erkenntnisse wesentlich detaillierter als bei frühe- ren neuronalen Netzen.

Big Data Methoden

  • Neuronale Netzwerke
  • Maschinelles Lernen
  • Predictive Analytics