Allgemeines zur IT

Neuste IT-TrendsNeuste IT-Trends

Künstliche IntelligenzKünstliche Intelligenz

Die bedeutende Rolle der Informations-Technologie

Der Begriff Informations-Technologie (IT) ist aus unserer heutigen modernen Welt kaum mehr wegzudenken. Denn im Grunde hat sie Einfluss auf sämtliche Lebensbereiche. In der Zeit vor der Jahrtausendwende spielte der IT-Bereich noch gewissermaßen eine Nebenrolle innerhalb des gesellschaftlichen Lebens. Erst nach der Kommerzialisierung des Internets zwischen 1990 und 1995 sowie der Einführung der ersten standardisierten Internetprotokolle und des ersten Webbrowsers der Firma Microsoft sollte sich dies ändern. Davor wurden Computer von der breiten Masse vorwiegend für das spielerische Freizeitvergnügen oder für einfache Aufgaben der Daten- und Textverarbeitung genutzt. Durch das Aufkommen des Internets und bedeutende Fortschritte im Bereich der Digitalisierung begann sich dies grundlegend zu ändern.

Die Zeiten ändern sich

Mittlerweile sind Computer in den meisten Bereichen des privaten und beruflichen Lebens mitunter die wichtigsten Werkzeuge geworden, und die Informationstechnologie spielt eine übergeordnete Rolle. Für große Teile haben E-Mails die Aufgabe der Faxgeräte weitestgehend ersetzt. Memos werden sehr häufig nur noch per Knopfdruck eingesprochen und digital gespeichert. Und die guten alten Briefsendungen werden für einen geringen Anteil und in Ausnahmefällen eingesetzt, wenn es aus bestimmten Gründen absolut notwendig ist. Auch die Verwendung von Archiven und Bibliotheken wurde grundlegend revolutioniert. Immer häufiger werden Daten in einer Cloud gespeichert.

Dank der Möglichkeiten moderner Informationstechnologie werden Informationen heute fast ausschließlich mittels Computern erzeugt, gespeichert und verbreitet. Die Werkzeuge der IT werden mit der Zeit sämtliche ihrer einst analogen Vorläufer ersetzen. Daher ist es generell ratsam, sich der Nutzung dieser Technologien nicht zu verschließen. Auch die einstigen Telefonzellen wurden durch handliche Smartphones ersetzt. Dasselbe geschieht mit den Schultafeln sowie Zeichen- und Schreibblöcken, an deren Stelle drucksensitive Displays treten.

Was sind eigentlich IT und ICT?

Der Begriff der Informationstechik (IT) wird häufig mit dem der Information and Communications Technology (ICT, auf Deutsch: Informations- und Kommunkationstechnik) in Verbindung gebracht. Bei dem Begriff der Informationstechnik handelt es sich um einen Oberbegriff. Dieser schließt sämtliche Formen der elektronischen Datenverarbeitung sowie die dafür notwendige Infrastruktur und Hard- und Software zur Übermittlung der Daten ein. Auf der praktischen Ebene sind damit alle Bereiche gemeint, die den technischen Überbau bilden für die Realisierung von Anwendungen zur Organisation und Verwaltung sowie Kommunikation und Unterhaltung.

Einfach gesagt ist mit der Bezeichnung IT alles und jeder gemeint, das oder der auf professionelle Weise etwas mit Computern zu tun hat.

Der Begriff Informations- und Kommunikationstechnik bezieht sich im engeren Sinne auf den Anteil der eigentlichen Technik im Oberbereich der IT. Damit sind im Allgemeinen meist die Geräte und Kommunikationssysteme gemeint wie zum Beispiel Smartphones, Fernsehgeräte oder Radios, aber auch Soft- und Hardware sowie Netzwerke. Es gibt sogar in Fachkreisen die häufige Annahme, dass die beiden Begriffe IT und ICT im Allgemeinen für dasselbe stehen. Und eigentlich ist es auch einfacher, zwischen dem Aufgabenbereich der Instandhaltung der Mikro-Elektronik und dem der programmiertechnischen Seite zu unterscheiden.

Das Internet der Dinge – IoT

Alle Welt spricht vom sogenannten Internet der Dinge. Und immer häufiger hört man davon, wie es uns das tägliche Leben einfacher macht. Dabei ist der Begriff keineswegs neu. Er wurde eigentlich schon Ende der 1990er geprägt. Mit dem Internet der Dinge, kurz IoT (Internet of Things), wird die nächste Entwicklungsstufe des Internets bezeichnet.

Evolution des Internets

Das Internet diente anfänglich vorwiegend dazu, Menschen miteinander in Verbindung zu bringen. Die erste populäre Form der Internet-Kommunikation war bekanntlich die über E-Mail-Programme. Dann gab es auch erste Schritte im Bereich der Verbindung von Mensch und Maschine. Webseiten wurden dynamischer und Besucher konnten aktiv Informationen aus Datenbanken abfragen. Beispielsweise konnte man Internet-Bestellungen vornehmen, ohne dass unbedingt andere Menschen involviert waren. Der Benutzer musste lediglich mit seinem Browser die jeweilige Anwendung starten, die auf einen Server ausgelagert war.

Gespräche zwischen Maschinen

Der anschließende logische Schritt war die stark gesteigerte Daten-Kommunikation zwischen Maschinen, die mit der Automatisierung einhergeht. Einfach gesagt geht es um computerisierte Geräte, die mittels Netzwerkverbindungen oder Sensoren Daten austauschen. Ein weiterer Begriff, der häufig im Zusammenhang mit dem Internet der Dinge aufkommt, ist das sogenannte Smarthome. Hierbei geht es um die Automatisierung von zahlreichen Vorgängen innerhalb einer Wohnung. Das Ziel ist es, die Verrichtung alltäglicher Dinge so effizient wie möglich zu gestalten.

Anwendungsbeispiele

Im Prinzip kann man sich das Leben in einem Smarthome wesentlich erleichtern, wenn dieses über Geräte verfügt, die programmierbar sind und auch miteinander kommunizieren können. Idealerweise sind dabei sogar einige Geräte selbst mit dem Internet verbunden. Beispielsweise wäre es hilfreich, wenn der Kühlschrank selbst bemerkt, dass bestimmte Lebensmittel knapp werden. Er könnte sie auf Wunsche eigenständig nachbestellen, warten, bis die bestellte Ware eintrifft und diese dann einräumen.

Ferngesteuert und automatisiert

Es ergeben sich unzählige Möglichkeiten, wie man mit den Geräten in seinem Smarthome sehr viel Zeit und Energie spart und dabei auch auch noch zu mehr Lebensqualität kommt. Mit der passenden App auf dem Smartphone lassen sich alle Vorgänge steuern und Überwachen. Man kann das Klima der Räume regulieren und das Badewasser einlassen, noch bevor man überhaupt in der Nähe des Hauses ist. Mit der entsprechenden Sensortechnik könnte man sich eine Vielzahl an Handgriffen sparen und bräuchte lediglich ein paar akustische oder visuelle Signale zu erteilen, um es daheim noch bequemer zu haben.

Künstliche Intelligenz – der Heilige Gral

Immer öfter hört man von künstlicher Intelligenz (KI), einem an sich sehr polarisierenden Thema. Während die einen die KI (englisch AI für Artificial Intelligence) für so etwas wie den Heiligen Gral des digitalen Zeitalters halten, scheinen viele andere sie regelrecht zu verteufeln. Nicht selten werden Horrorszenarien zitiert, wie man sie aus dem Film Terminator kennt. Dabei sind sich viele nicht wirklich darüber im Klaren, was damit eigentlich gemeint ist.

Die Ursprünge der KI

Der Begriff der künstlichen Intelligenz wurde bereits im Jahr 1956 durch den Informatiker und Kognitionswissenschaftler John McCarthy und seine Kollegen im Zusammenhang mit der Dartmouth-Konferenz geprägt. McCarthy gilt neben anderen als einer der Gründerväter der KI. Auch Wissenschaftler wie Alan Turing, Allen Newell, Herbert A. Simon und Marvin Minsky waren auf dem Gebiet tätig.

Im Wesentlichen wurde die KI seinerzeit wie folgt definiert: Es handelt sich um eine Maschine, die dazu in der Lage ist, Aufgaben zu bewältigen und Probleme zu lösen, wofür bisher der Einsatz und die Unterstützung menschlicher Intelligenz erforderlich war. Als Gradmaß einer Intelligenz sollte dabei die Fähigkeit des eigenständigen Lernens dienen.

Intelligenz durch Algorithmen

Im Grunde genommen basiert die KI nach wie vor auf einer Abfolge mathematischer Funktionen. Diese müssen wie alle Computerprogramme aufgerufen werden. Im Bereich der Informatik wird in dem Zusammenhang von Algorithmen gesprochen. Einfach gesagt sind dies eindeutige Handlungsvorschriften, die zur Lösung von Problemen zum Einsatz kommen.

Und da es auf dem Feld der künstlichen Intelligenz überaus vielschichtiger Programmstrukturen bedarf, werden diese im Allgemeinen in mehrere verschiedene Teilaspekte aufgeteilt. Dabei geht es beispielsweise um die Simulation menschlicher Hirnfunktionen, Spracherkennung und -bildung, Selbst-Programmierung, Erfassung und Einschätzung komplexer Zusammenhänge, Verbesserung eigener Prozesse und Ähnliches.

Was ist Big Data?

Die meisten Menschen nutzen ihre Smartphones im Laufe des Tages regelmäßig. Dabei machen sich die wenigsten wirklich Gedanken darüber, wie viele Daten sie dabei produzieren. Wir senden Textnachrichten in Apps oder mithilfe von E-Mail-Programmen. Auch das Senden von Fotos und Videos ist für viele längst zu einer Art Selbstverständlichkeit geworden. Natürlich nutzen wir die Suchfunktion und tätigen viele unserer Einkäufe und vieles mehr über das Internet.

Die dabei generierten Datenmengen sind enorm. Dabei erklärt es praktisch von selbst, dass die Gesamtheit der Daten von Experten als Big Data (große Datenmenge) bezeichnet wird. Nach allgemeinen Schätzungen werden weltweit pro Minute mehrere Millionen Nachrichten auf Plattformen der sozialen Medien und noch viel mehr bei den Suchanfragen auf Google generiert. Allein der Daten-Anteil der rund 200 Millionen versendeten E-Mails ist unvorstellbar.

Die Daten, die unter die Bezeichnung Big-Data fallen, zeichnen sich im Wesentlichen durch die folgenden Eigenschaften aus:

  • Es handelt sich um riesige Datenmengen.
  • Die Daten werden mit enormer Geschwindigkeit erzeugt und übermittelt.
  • Die Daten weisen eine extreme inhaltliche Vielfalt auf.
  • Die Verarbeitung der Datenmengen ist ohne spezielle zusätzliche Software nicht zu bewältigen.
  • Ihnen wird ein gewisser Wert zugeordnet.

Konzerne und Firmen hegen ein großes Interesse an der Sammlung und Auswertung der Big Data, da ihnen dies Rückschlüsse erlaubt und ermöglicht, ihre Umsätze zu steigern.

Was sind Wearables?

Ein neuer Trend im Bereich der IT ist die Entwicklung von Wearables. Im Prinzip geht es dabei um die Integration computerunterstützter Technologien in Artikel, die von Menschen getragen werden können. Dabei handelt es sich in jedem Fall um Minicomputer, die sehr klein, leicht und platzsparend sind. Sie können beispielsweise in die Kleidung eingebracht und so quasi mit ihr zu einer Einheit verschmolzen werden. Doch es gibt sie auch als separate Geräte und Applikationen, die zusätzlich an der Kleidung angebracht werden. Weitere gängige Formen der Wearables kommen in ergonomisch angepasster Form daher. Sie lassen sich zum Beispiel wie Ohrstecker, Klammern oder herkömmliche Uhren an den Handgelenken tragen.

In der Regel sind sie mit Sensoren zur Datenmessung und häufig auch mit Chips zur Datenverarbeitung ausgestattet. Meist können die Geräte sich auch mit dem Internet verbinden oder kabellos Daten an andere Geräte wie Smartphones übertragen. Nützliche Anwendungen der Wearables ergeben sich unter anderem im Bereich der Sportmedizin oder der Medizin im Allgemeinen. Sie können beispielsweise zur Überwachung von Körperfunktionen während des Trainings oder auch zur Beobachtung der Vitalfunktionen von Patienten genutzt werden. Doch diese vielversprechende Technologie bietet darüber hinaus noch viele weitere sinnvolle Anwendungsmöglichkeiten.

Nachteile des Einsatzes künstlicher Intelligenz

Die Einsatzmöglichkeiten der künstlichen Intelligenz sind sehr vielfältig und die KI bietet zweifelsfrei viele Vorteile. Doch natürlich hat es auch ein paar Schattenseiten, wenn Computer immer menschlicher werden. Das meist genannte Hauptargument ist, dass die KI den Menschen die Arbeit nimmt. Doch dieses Argument ist das Ergebnis einer kurzsichtigen Betrachtung. Denn die Technologie ist noch längst nicht ausgereift. Und es wird noch Jahrzehnte dauern, bis sie die Leistungsfähigkeit im Bereich der Denkarbeit erreicht haben wird, die den Einsatz der Menschen abkömmlich macht.

Dennoch gibt es eine Reihe von übergeordneten Bedenken moralischer und ethischer Natur, die ernst zu nehmen sind. Eines der Probleme ist, dass die Technologien der künstlichen Intelligenz auch für Zwecke eingesetzt werden, die Menschen in ihrer Freiheit einschränkt und ihnen das Leben schwerer macht. Zu denken ist beispielsweise an Algorithmen, die auf der einen Seite im Bereich des Gesundheitswesens zur Erkennung von Krankheiten eingesetzt werden. Diese können andererseits in abgewandelter Form auch ohne Weiteres zur Überwachung menschlicher Individuen im öffentlichen Raum genutzt werden, wie man es aus Ländern wie China kennt.

Eines der weiteren berechtigten Bedenken ist die Frage danach, wer die Kontrolle über die intelligenten Computer hat. Die Gesellschaft darf diese nicht blind den mächtigen und einflussreichen Welt-Konzernen oder Führern totalitärer Staaten überlassen. Derartig wichtige Entscheidungen müssen demokratischen Prozessen unterworfen werden. Darüber hinaus sehen auch Experten die Problematik, dass die künstlichen Intelligenzen Entscheidungen treffen, die den Menschen nicht zugutekommen, da sie selbst nicht dazu in der Lage sind, Gefühle zu empfinden. Das macht sie gewissermaßen zu verkappten Psychopathen.

Allgemeine Vorteile künstlicher Intelligenz

Einer der Hauptvorteile der künstlichen Intelligenz wird durch die Folgen der Automatisierung gegeben. Dank der KI fallen viele zeitraubende und schwierige Aufgaben des täglichen Lebens weg. Sowohl im beruflichen als auch privaten Bereich können viele Abläufe erheblich vereinfacht werden. Die KI bietet nicht nur Vorteile für die einzelnen Menschen als Individuen. Denn auch aus wirtschaftlicher Sicht macht der Einsatz von Computern und Robotern mit künstlicher Intelligenz Sinn, da diese weniger fehleranfällig sind, viel genauer und bei regelmäßiger Wartung praktisch rund um die Uhr arbeiten können. Die Beschäftigung von Menschen ist im Vergleich dazu auch wesentlich aufwendiger. Der Aspekt der Kostenersparnis durch KI ist nur einer davon.

Arbeitgeber haben den Vorteil, erheblich weniger Löhne und Versicherungsbeiträge zahlen zu müssen. Zudem fallen noch viele weitere Nebenkosten des Unterhalts der Arbeiter weg. Die Arbeit der KI verläuft nicht nur reibungsloser. Sie erhöht auch die Produktivität um ein Vielfaches, da Computer sich ideal für Multitasking-Aufgaben eignen. Die KI kann neben der Informationstechnik in unzähligen weiteren Branchen und Bereichen eingesetzt werden, sei es in der Industrie, dem Gesundheitswesen, der Bildung, der Mobilität und vielen weiteren. Tatsächlich kann die KI dem Menschen sogar dabei helfen, klügere Entscheidungen zu treffen, da sie größere Zusammenhänge auswerten kann, ohne von jeglichen emotionalen Einflüssen abgelenkt zu werden.

Sie haben Fragen oder Anregungen? Dann lassen Sie uns doch einfach eine Nachricht über dieses Formular zukommen!

Kramoo.de – die spannende Welt der InformationstechnologieKramoo.de – die spannende Welt der Informationstechnologie