Data Science Lab | Erkenntnis gewinnen

Heute produzieren Unternehmen nicht nur Produkte, sondern gleichzeitig große Datenmengen in ihren (Herstellungs-)Prozessen. Diese Daten sind mehr als nur ein Nebenprodukt, denn sie liefern Entscheidern wertvolle Erkenntnisse. Wir, das fuseki Data Science Lab, heben diese Datenschätze und erkennen versteckte Datenzusammenhänge, gewinnen Erkenntnisse aus den Daten und optimieren fundiert die Geschäftsprozesse. Mithilfe dieser wichtigen Bereiche – Artificial Intelligence, Data Science und Business Intelligence – stellen sich Unternehmen für die Zukunft auf und bleiben wettbewerbsfähig.

Leistungen unseres Data Science Labs

Durch wissenschaftliche Methoden und mathematische Verfahren durchdringen wir große, komplexe Datenstrukturen, die häufig nur durch Big Data-Technologien zugänglich werden. Das Vorgehen liefert fundierte Antworten zu Fragestellungen verschiedenster Branchen, wie z.B. Energiehandel, Wasserwirtschaft oder Windkraftanlagen.

 

Die Themenbereiche sind weit gefächert: durch Predictive Maintenance und Advanced Condition Monitoring können Restlebensdauerprognosen gestellt, selbstlernende Betriebsstörungserkennungen entwickelt oder auch Klassifikationen von Anlagenzuständen etabliert werden. Smarte IoT und Big Data Architekturen liefern Erkenntnisse zu skalierbaren, zukunftssicheren Plattformen sowie Cloud-, Edge- und Hybridszenarien. Die Image- und Videoanalyse kann für dynamische Objektdetektionsszenarien oder zur Qualitätskontrolle von Produkten eingesetzt werden.

 

Die Möglichkeiten mit Artificial Intelligence, Data Science und Business Intelligence sind nahezu unbegrenzt. Komplexitäten zu durchdringen und Datenzusammenhänge zu erkennen ist die Profession unseres Data Science Labs. Ein Ergebnis kann auch sein, dass etwas klar widerlegt wird und gedachte Zusammenhänge faktisch nicht existieren. Damit helfen wir, die Geschäftsprozesse unserer Kunden zu optimieren oder eine Basis für neue Geschäftsmodelle zu schaffen.

Datenanalyse | Advanced Analytics

Methoden unseres Data Science Labs zur Lösung Ihrer individuellen Fragestellungen.

Maschinelles Lernen

Lernen statt explizite Programmierung – Algorithmen des maschinellen Lernens können aus Daten generalisierende Regeln erlernen und so Aufgaben bewältigen, die bisher Menschen vorbehalten waren. Ob bei der Gesichts- oder Objekterkennung in Bilddaten, beim autonomen Fahren oder für Sprachassistenten wie Siri und Cortana – Maschinenlernverfahren ermöglichen in fast allen Branchen einen bis dato unerreichten Automatisierungsgrad.

 

Maschinenlernverfahren kommen bei uns zum Beispiel zum Einsatz, wenn abweichendes Verhalten erkannt und klassifiziert sowie vorhergesagt werden soll. Das können etwa Störungen und Defekte technischer Anlagen unter Verwendung von Betriebssensordaten sein. Oder Transaktionsdaten in denen betrügerische Handlungen rechtzeitig gefunden und vorbeugend verhindert werden sollen.

 

Maschinelles Lernen ermöglicht es, in komplexen Datensituationen subtile Zusammenhänge nutzbar zu machen. Dadurch kann für konkrete Aufgaben häufig ein besseres Ergebnis als mit klassischen Modellierungs-Methoden erreicht werden. Wo früher Details mühsam von Hand ausmodelliert werden mussten, können Algorithmen heute vielfach von der Menge der vorhandenen Daten profitieren und so mit weniger Aufwand eine sehr hohe Präzision erreichen.

Topologische Datenanalyse

In unseren Projekten nutzen wir Methoden der topologischen Datenanalyse zum Beispiel zur frühzeitigen und präzisen automatischen Erkennung und Klassifizierung von Betriebsstörungen und Sensorabweichungen. Im Bereich HR-Digitalisierung verwenden wir topologische Algorithmen zur Darstellung und Lösung von Person-Group/Job-Matching Fragestellungen. Im Bereich Prozess-Optimierung nutzen wir persistente Homologie auf Prozessdaten-Komplexen um Kriterien für Handlungsbedarf und On Time Delivery – Vorhersagen zu entwickeln.

 

Weitere Beispiele für Fragestellungen, die mit Methoden der Topologischen Datenanalyse gelöst werden können:

 

  • Welche Untersorten von Betrug in meinem E-Commerce System gibt es, wie unterscheiden sie sich und wie kann ich sie automatisch ausschließen?
  • Welcher Fußballspieler spielt sehr ähnlich wie Luis Suarez, ist aber deutlich günstiger?
  • Wie kann ich unterschiedlich geformte, kleinste Risse in der Produktion mit Ultraschall- oder Temperatursensoren präzise detektieren und bewerten?

Die Ergebnisse von TDA-Algorithmen sind für uns häufig ein hochwertiger Input für unsere Maschinenlern-Verfahren und führen in dieser Kombination zu Lösungen, deren Präzision auf anderen Wegen kaum erreichbar ist.

Zeitreihenanalyse

Seit Jahrzehnten werden Zeitreihendaten in den unterschiedlichsten Systemen von Wirtschaft und Industrie erfasst und genutzt – Zeitreihen sind Standard und dienen als Grundlage für Prognosen und Entscheidungen. Ob Sensormesswerte, Energiepreise oder Prozessdaten, Zeitreihen sind auch für uns die häufigste Form von Daten, mit denen wir arbeiten.

 

Der Methodenkanon zur Untersuchung und Vorhersage von Zeitreihen hat sich in den letzten Jahren entscheidend verstärkt: Auch hier spielen Algorithmen des maschinellen Lernens heute eine immer wichtigere Rolle. In Kombination mit klassischen statistischen Methoden zur multivariaten Zeitreihenanalyse entwickeln wir so Modelle, die präzise Vorhersagen ermöglichen oder frühzeitig Zustandsänderungen und Ereignisse detektieren.

Predictive Alerting

Predictive Alerting ermöglicht proaktives Eingreifen in elektronisch überwachte technische Prozesse: Ist aus dem eingehenden Geschäftsdatenstrom frühzeitig erschließbar, dass sich eine Fehlersituation oder ein ungewünschter Betriebszustand entwickelt, eröffnet ein qualifizierter Alarm die Möglichkeit rechtzeitig Maßnahmen zur Vermeidung dieser zu Zeit- und Geldverlust führenden Zustände einzuleiten. Die Wahrnehmung subtilster Muster in den Daten als Grundlage des Predictive Alerting ist der Schlüssel zur Verhinderung von Defekten an Bauteilen bzw. Reduktion der Ausfallzeiten, Gewährleistung zeitlich konstanter Qualität in der Produktion und signifikanter Steigerung zugehöriger Wertschöpfungspotentiale.

Text- und Sprachanalyse

Gering strukturierte Textdaten machen ca. 90% aller verfügbaren Daten aus und tragen viele statistisch messbare Informationen in sich: So würden die meisten Menschen den Satz „Niemand hat die Absicht, eine…“ sofort durch „Mauer zu errichten“ vervollständigen.

 

  • Text Mining, Natural Language Processing, Sentiment Analysis
  • Wissensmanagementsysteme

Beispiele für konkrete Fragestellungen:

 

  • Juristik: Welche von tausenden Vertragsdokumenten sind relevant für die Bewertung eines Unternehmens bei einer Firmenübernahme?
  • HR: In welche Abteilung unseres Konzerns würde dieser Bewerber gut hineinpassen? (person-group-fit, person-job-fit)
  • Consulting: Welcher unserer Berater kann diese Anfrage am besten bedienen?

Video- und Bilderkennung

Computer können mit geeigneten Methoden auf Bildern und in Videos verschiedene Objekte präzise klassifizieren. Dabei ist nicht entscheidend, wie die Objekte orientiert sind oder ob sie sich gegenseitig partiell überdecken – so wie auch Menschen es können. Die Videoüberwachung kann vielfältig eingesetzt werden, beispielsweise in industriellen Fertigungsstraßen um händische Beschriftungen vorbeifahrender Objekte auszulesen, in der Weidetierhaltung um ein bestimmtes Rind mittels Umriss und Fellzeichnung zu identifizieren oder um Informationen aus bildgebenden Verfahren in der Medizin abzuleiten. Diese Methoden sind eng mit der Künstlichen Intelligenz verbunden: hier können sogar bei geeigneter Herangehensweise aus den zweidimensionalen Objektinformationen auch dreidimensionale Objekteigenschaften abgeleitet werden.
Nach oben scrollen