Aufrufe
vor 2 Jahren

02 | 2015 public

  • Text
  • Verwaltung
  • Factory
  • Konsolidierung
  • Anforderungen
  • Einsatz
  • Frameworks
  • Anwendung
  • Systeme
  • Software
  • Unternehmen
Schwerpunkt: Konsolidierung der IT-DLZ

Die Stadt New York geht

Die Stadt New York geht Beschwerden über illegale Wohnungsaufteilungen mit städtischen Inspektoren nach. Täglich trifft eine Vielzahl von Beschwerden ein. Die wenigen Inspektoren müssen entscheiden, welchen davon sie vordringlich nachgehen. Finden sie vor Ort dann tatsächlich eine illegal aufgeteilte Wohnung vor, ordnen sie die Räumung an. Bis zum Jahr 2011 geschah dies in 14 Prozent der durch Inspektoren vor Ort überprüften Wohnungen. Im Jahr 2009 startete ein Big-Data-Projekt, das nach besonderen Merkmalen dieser Fälle suchte. Dazu wurden die Daten von zurückliegenden Räumungen mit Daten aus 19 verschiedenen Quellen der Stadt verknüpft, wie zum Beispiel die Lage der Wohnung, Alter der Bausubstanz, Verbrauchsdaten der Energieversorgung, Fälle von Schädlingsbefall und Häufigkeit von Polizeieinsätzen. Aus der Verknüpfung dieser Daten entwickelte ein Team von Datenanalysten ein Vorhersagemodell, das die Wahrscheinlichkeit berechnet, dass eine eintreffende Beschwerde von Nachbarn berechtigt ist. Seit 2011 wird auf Basis dieses Modells entschieden, welchen Beschwerden vorrangig nachgegangen wird. Die Trefferquote der Inspektionen stieg dadurch von 14 Prozent auf 70 Prozent. ERMITTLUNG DES BESTEN VORHERSAGEMODELLS Um das beste Vorhersagemodell zu ermitteln, rechneten die Datenanalysten in New York sehr viele Modellvarianten für alle bereits zurückliegenden Fälle durch. Jede Modellvariante verknüpfte dabei auf eine bestimmte Art die Daten des Falls mit allen verfügbaren Daten aus den anderen 19 Datenquellen. Durch Ausprobieren einer Vielzahl von Varianten wurde so das Modell mit der größten Vorhersagekraft identifiziert. Das Durchrechnen vieler Modelvarianten zur Ermittlung des besten Vorhersagemodells ist charakteristisch für Big Data. Es erfordert, dass Berechnungen hochgradig parallel und auf großen, unterschiedlich strukturierten Datenmengen aus verschiedenen Quellen ausgeführt werden. Big-Data-Technologien, wie zum Beispiel NoSQL-Datenbanken, bilden hierfür die technische Grundlage. Die spätere Anwendung des Vorhersagemodells erfordert dagegen deutlich weniger Rechenleistung, da nur noch die Daten eines konkreten Falls mit dem einmal gefundenen Modell durchgerechnet werden. DER WEG ZU BIG DATA Die Konzepte und Technologien von Big Data ermöglichen heute die Entwicklung völlig neuer Anwendungen und deren Skalierung auf immer größere Datenvolumina. Damit ist jedoch auch ein Paradigmenwechsel verbunden, der gleichermaßen Anwender wie auch Entwickler und Betreiber von IT-Systemen betrifft: Vor allem müssen Organisationen die Hürden für den Zugriff auf Daten anderer Fachbereiche und Nutzer (Bürger) abbauen. Fachanwender müssen ihre Datenbestände als Quelle neuer Erkenntnisse wahrnehmen und diese mit Datenanalysten und anderen Fachanwendern teilen. Außerdem müssen Software-Entwickler neue Technologien, Architekturen und Systeme entwickeln und beherrschen, um Big-Data-Anwendungen zu realisieren. Der IT-Betrieb muss eine Infrastruktur für diese Anwendungen aufbauen, die stark von der klassischen Systemlandschaft aus Applikationsservern und relationalen Datenbanken abweicht. Um allen Beteiligten Zeit für die erforderlichen Lern- und Veränderungsprozesse zu geben, ist es sinnvoll, in kleinen Schritten vorzugehen. Das erste Big-Data-Projekt sollte ein überschaubares und konkretes Ziel besitzen, das einen unmittelbaren Nutzen verspricht. Das Ziel kann technisch motiviert sein, beispielsweise, wenn die Kapazität eines bestehenden Verfahrens nicht mehr ausreicht, um die anfallenden Daten zu verarbeiten. Oder es kann sich um einen fachlichen Anwendungsfall handeln, in dem die (neue) Verknüpfung bestehender Daten einen erheblichen Mehrwert bringt und sich ein entsprechender Nutzen rechnen lässt. Sofern es um die Verknüpfung von fachlichen Daten geht, ist die Analyse der bestehenden Datenbestände der erste Schritt, um herauszufinden, welche Daten überhaupt vorliegen und wie sie in Beziehung gesetzt werden können. Dabei sind auch die rechtlichen Rahmenbedingungen zu klären. Dieser erste Schritt ist unerlässlich, um zu vermeiden, dass ein Software-Projekt begonnen und entsprechende Hard- und Software sowie eine Infrastruktur beschafft werden, ohne dass im Vorfeld geklärt wurde, dass die entsprechenden Big-Data-Ziele mit dem vorliegenden (oder einem zu erhebenden beziehungsweise erhebbaren) Datenbestand überhaupt erreicht werden können. Da Big-Data-Projekte aufgrund ihrer sehr speziellen mathematischen, algorithmischen und technischen Verfahren nicht einfach nur „Datenbank-Projekte mit vielen Daten“ sind, ist es sinnvoll, für ein erstes Big-Data-Projekt einen Beratungspartner auszuwählen, der entsprechende Erfahrungen nachweisen kann. Ist man nicht an einen bestimmten Anbieter gebunden, können Open-Source-Lösungen wie zum Beispiel Apache Hadoop einen leichtgewichtigen Einstieg in das Thema Big Data ermöglichen. In der Pilot-Phase fallen damit zunächst keine Lizenzkosten an. Um die erste technische Hürde zu überwinden, sollte der Beratungspartner bereits Erfahrungen mit der jeweiligen Plattform besitzen. 40 | .public 02-15 | Informationstechnologie

Der Einsatz kommerzieller Systeme hingegen bietet sich für ein erstes Projekt an, wenn bereits eine Systemlandschaft dieses Herstellers in Betrieb ist. Entsprechende Lösungen haben alle großen Hersteller von Datenbanken und ERP-Systemen in ihrem Portfolio. Die unmittelbare Integration mit den vorhandenen Systemen ist dabei der große Vorteil. FAZIT – MEHR EFFIZIENZ IM ÖFFENTLICHEN BEREICH Durch Big-Data-Anwendungen lassen sich dann im öffentlichen Bereich erhebliche Effizienzsteigerungen und Kosteneinsparungen erzielen. Beispielprojekte dazu sind vorhanden. Der Einstieg in neue Technologien, die Big Data mit sich bringt, ist zunächst eine Hürde. Realistische Zielsetzungen und die Auswahl eines Pilotprojekts, das ein konkretes Problem löst, helfen, diese Hürde zu überwinden.• Big Data schafft nicht nur für Unternehmen, sondern auch für den öffentlichen Bereich einen Mehrwert. Dies geschieht z. B. durch die Erweiterung existierender Verfahren auf größere Datenmengen, die nur mit Big-Data-Technologien verarbeitet werden können, oder durch eine neuartige Verknüpfung vorhandener Daten. Auch wenn die Big-Data-Geschäftsmodelle kommerzieller Unternehmen nicht ohne Weiteres auf öffentliche Stellen übertragbar sind, so sind es doch die Verfahren und Technologien, die von diesen Unternehmen im Bereich Big Data entwickelt wurden. ANSPRECHPARTNER – NEDISLAV NEDYALKOV IT Consultant Public Sector • +49 15114863087 • nedislav.nedyalkov@msg-systems.com Für innovative Lösungen müssen zunächst die vorhandenen Datenbestände verfügbar gemacht und durch geeignete Experten analysiert werden. Dabei sind die spezifischen Rahmenbedingungen des öffentlichen Bereichs, wie zum Beispiel Zweckgebundenheit, Datenschutz und das Vertrauensverhältnis zu den Bürgern, zu beachten. WEITERFÜHRENDE LITERATURHINWEISE BITKOM (Hrsg.). „Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte“. BITKOM Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V., 2012 Viktor Mayer-Schönberger und Kenneth Cukier. „Big Data – Die Revolution, die unser Leben verändert“. Redline Verlag, München, 2013 Klaus-Peter Eckert, Lutz Henckel, Petra Hoepner. „Big Data – Ungehobene Schätze oder digitaler Albtraum“. Fraunhofer-Institut für Offene Kommunikationssysteme FOKUS, Kompetenzzentrum Öffentliche IT, 1. Auflage, März 2014 Dr. Andreas Schäfer, Dr. Melanie Knapp, Dr. Michael May, Dr. Angelika Voß. „Big Data – Vorsprung durch Wissen. Innovationspotenzialanalyse“. Fraunhofer-Institut für Intelligente Analyseund Informationssysteme IAIS, 2012 Informationstechnologie | .public 02-15 | 41

msg

01 | 2018 public
02 | 2017 public
01 | 2017 public
02 | 2016 public
01 | 2016 public
02 | 2015 public
01 | 2015 public
01 | 2014 public
01 | 2014 msg systems study
01 | 2015 msg systems Studienband
Future Utility 2030
Lünendonk® Trendstudie
Digitale Transformation | DE
Digital Transformation | EN
DE | inscom 2014 Report
EN | inscom 2014 Report

msgGillardon

03 | 2016 NEWS
02 | 2016 NEWS
01 | 2016 NEWS
03 | 2015 NEWS
02 | 2015 NEWS
01 | 2015 NEWS
02 | 2014 NEWS
01 | 2014 NEWS
02 | 2013 NEWS
01 | 2012 NEWS
02 | 2011 NEWS
01 | 2010 NEWS
MaRisk
01 | 2017 banking insight
01 | 2015 banking insight
01 | 2014 banking insight
01 | 2013 banking insight
01 | 2012 banking insight
02 | 2011 banking insight
01 | 2011 banking insight
01 | 2010 banking insight
2016 | Seminarkatalog | Finanzen

Über msg



msg ist eine unabhängige, international agierende Unternehmensgruppe mit weltweit mehr als 6.000 Mitarbeitern. Sie bietet ein ganzheitliches Leistungsspektrum aus einfallsreicher strategischer Beratung und intelligenten, nachhaltig wertschöpfenden IT-Lösungen für die Branchen Automotive, Banking, Food, Insurance, Life Science & Healthcare, Public Sector, Telecommunications, Travel & Logistics sowie Utilities und hat in über 35 Jahren einen ausgezeichneten Ruf als Branchenspezialist erworben.

Die Bandbreite unterschiedlicher Branchen- und Themenschwerpunkte decken im Unternehmensverbund eigenständige Gesellschaften ab: Dabei bildet die msg systems ag den zentralen Kern der Unternehmensgruppe und arbeitet mit den Gesellschaften fachlich und organisatorisch eng zusammen. So werden die Kompetenzen, Erfahrungen und das Know-how aller Mitglieder zu einem ganzheitlichen Lösungsportfolio mit messbarem Mehrwert für die Kunden gebündelt. msg nimmt im Ranking der IT-Beratungs- und Systemintegrationsunternehmen in Deutschland Platz 7 ein.


© 2018 by msg systems ag - powered by yumpu Datenschutz | Impressum