Software für Internet in Loitz, Software für Internet in Loitz, Mecklenburg-Vorpommern

Software für Internet in Loitz, Software für Internet Region

Auch wenn Sie nicht aus Loitz kommen, wir sind Ihr Partner rund um das Thema Software Development, Softwareentwicklung, Software Engineering, Software Entwicklung, Software Entwickler, IT Beratung und IT Consulting, Software für Internet, Organisation Software, Qualitätsmanagement QM Quality Management ISO EN, Konstruktion CAD, Borland DBE, MDE Mobile Datenerfassung Software

 

 

Softwaretechnik

aus www.ifq.de, der freien Enzyklopädie

Die Softwaretechnik ist eine deutschsprachige Übersetzung des engl. Begriffs software engineering und beschäftigt sich mit der Herstellung bzw. Entwicklung von Software, der Organisation und Modellierung der zugehörigen Datenstrukturen und dem Betrieb von Softwaresystemen. Eine Definition von Helmut Balzert beschreibt das Gebiet als

Zielorientierte Bereitstellung und systematische Verwendung von Prinzipien, Methoden und Werkzeugen für die arbeitsteilige, ingenieurmäßige Entwicklung und Anwendung von umfangreichen Softwaresystemen.“ (Lit.: Balzert, S.36)

Softwaretechnik umfasst eine Vielzahl von Teilgebieten, die in ihrer Gesamtheit die Softwareentwicklung begleiten. Wichtig ist auch die experimentelle Untersuchung von Softwaretechnik, um ihren praktischen Nutzen zu messen und zu verbessern. Zur Beschreibung des „Standes der Technik“ des Fachgebiets gibt es verschiedene Ansätze, unter anderem den „Guide to the Software Engineering Body of Knowledge“ (SWEBOK) der IEEE Computer Society.

In erweitertem Sinn umfasst die Softwaretechnik – neben dem Entwickeln – auch das Betreiben der Software unter Nutzung der Informationstechnik.

Inhaltsverzeichnis

Aufgrund des hohen Aufwandes zur Erstellung und Wartung komplexer Software erfolgt die Entwicklung durch Softwareentwickler anhand eines strukturierten (Projekt-)Planes. Dieser Plan (das Vorgehensmodell) unterteilt den Entwicklungsprozess in überschaubare, zeitlich und inhaltlich begrenzte Phasen. Die Software wird somit Schritt für Schritt fertiggestellt. Die Phasen sind während des ganzen Entwicklungsprozesses eng miteinander verzahnt. In der Praxis werden auch Verfahren eingesetzt, welche die Mehrstufigkeit von Systemanalyse, Systemdesign/Konzept und anschließender Implementierung und Testen aufgeben, siehe z. B. unter Prototyping, Agile Softwareentwicklung.

Die Softwaretechnik beinhaltet den gesamten Prozess von der Identifizierung des Bedarfs bis hin zur Inbetriebnahme einer konkreten IT-Lösung, zum Teil auch darüber hinaus. Hauptgegenstand ist die Bereitstellung und Einführung einer Anwendungssoftware, teilweise zzgl. der benötigten Hardware und Netzwerke.

Die zu implementierende Software kann entweder eine Individualsoftware oder eine Kombination und Konfiguration von Standardsoftware sein.

Projekte werden oftmals von oder mit externen Dienstleistungsunternehmen, häufig aber auch als Eigenentwicklung geleistet. Dementsprechend vielfältig, auch abhängig von der Projektart, sind auch die Vorgehensweisen bei der Projektentwicklung: Von einer sehr strukturierten Herangehensweise, siehe Wasserfallmodell, über verschiedene Mischformen bis hin zu sehr flexiblen, offenen Methoden wie der Agilen Softwareentwicklung. Entsprechend wird auch zwischen Top-Down- und Bottom-Up-Ansätzen unterschieden.

Im Folgenden werden einige wichtige Aspekte und typische Stufen/Phasen der Projektentwicklung beschrieben, die in der Praxis mehr oder weniger ausgeprägt zum Tragen kommen.

Die Phasen und ihre Aufgabenstellungen sind in der folgenden Tabelle aufgeführt:

Kernprozesse

1. Planung

  • Anforderungserhebung
  • Lastenheft (Anforderungsdefinition)
  • Pflichtenheft (Mit technischen Ansätzen verfeinertes Lastenheft)
  • Aufwandsschätzung (z. B. mittels Function-Point-Verfahren oder COCOMO)
  • Vorgehensmodell

2. Analyse

  • Auswertung
  • Mock-up
  • Prozessanalyse / Prozessmodell
  • Systemanalyse
  • Strukturierte Analyse (SA)
  • Objektorientierte Analyse (OOA)

3. Entwurf

  • Softwarearchitektur
  • Strukturiertes Design (SD)
  • Objektorientiertes Design (OOD)
  • Unified Modeling Language (UML)
  • Fundamental Modeling Concepts (FMC)

4. Programmierung

  • Normierte Programmierung
  • Strukturierte Programmierung
  • Objektorientierte Programmierung (OOP)
  • Funktionale Programmierung

5. Validierung und Verifikation

  • Modultests (Low-Level-Test)
  • Integrationstests (Low-Level-Test)
  • Systemtests (High-Level-Test)
  • Akzeptanztests (High-Level-Test)

Unterstützungsprozesse

6. Anforderungsmanagement

7. Projektmanagement

  • Risikomanagement
  • Projektplanung
  • Projektverfolgung und -steuerung
  • Management von Lieferantenvereinbarungen

8. Qualitätsmanagement

  • Capability Maturity Model
  • Spice (Norm) (Software Process Improvement and Capability Determination)
  • Incident Management
  • Problem Management
  • Softwaremetrik (Messung von Softwareeigenschaften)
  • statische Analyse (Berechnung von Schwachstellen)
  • Softwareergonomie

9. Konfigurationsmanagement

  • Versionsverwaltung
  • Änderungsmanagement / Veränderungsmanagement
  • Release Management
  • Application Management (ITIL)

10. Softwareeinführung

11. Dokumentation

  • Technische Dokumentation
  • Softwaredokumentation
  • Software-Dokumentationswerkzeug
  • Betriebsdokumentation (Betreiber/Service)
  • Bedienungsanleitung (Anwender)
  • Geschäftsprozesse (Konzeption der Weiterentwicklung)
  • Verfahrensdokumentation (Beschreibung rechtlich relevanter Softwareprozesse)

Die oben genannten Teilschritte der Softwareentwicklung werden nicht zwangsläufig bei jedem Projekt komplett durchlaufen. Vielmehr werden einzelne Prozesse spezifisch für die jeweilige Anforderung gewählt. Dies ist aus Sicht der Kosten- und Verwaltungsreduzierung notwendig.

Der gesamte Prozess einer Projektentwicklung unterliegt meist einem mehr oder weniger stark ausgeprägten Projektmanagement. Im Falle der Realisierung durch einen IT-Dienstleister wird meist sowohl auf Auftraggeber- als auch auf Auftragnehmer-Seite ein jeweils eigenständiges Projektmanagement betrieben. Um Konflikte zwischen den beiden Projektleitern aufzulösen, wird dem übergeordnet oftmals noch ein aus dem Management von Auftraggeber und Auftragnehmer zusammengesetztes Kontrollgremium (Project Board) eingesetzt.

Typischerweise wird für größere Projekte auch ein größerer Projektmanagement-Aufwand betrieben, während mittlere oder kleinere Projekte häufig „nebenbei“ abgewickelt werden.

In allen Phasen der Projektentwicklung ist das IT-Consulting (oder auf Deutsch „Konzeptionen und Beratung“) durch externe Beraterfirmen üblich.

Das Qualitätsmanagement innerhalb des Projekts wird als Teilbereich des Projektmanagements verstanden.[1] Es umfasst die Teilgebiete:

  • Qualitätsplanung, das heißt Identifizierung der für das Projekt relevanten Qualitätskriterien und der Methoden, mit denen sie erfüllt werden können.
  • Qualitätssicherung, das heißt regelmäßige und regelgerechte Bewertung der Projektleistung, damit das Projekt die Qualitätsstandards erfüllt.
  • Qualitätslenkung, das heißt Überwachen der Projektergebnisse, um festzustellen, ob die Qualitätsstandards erfüllt werden, und um die Ursachen unzureichender Leistungen zu beseitigen.

Das Qualitätsmanagement im Projekt muss sowohl die Leistung des Projekts als auch die Qualität des Projektprodukts ansprechen. Modernes Qualitätsmanagement und modernes Produktmanagement ergänzen sich. Beide Disziplinen erkennen die Bedeutung von

  • Kundenzufriedenheit
  • Prävention geht vor Überprüfung
  • Managementverantwortung

an. Qualitätsverbesserungsprogramme, die von der Trägerorganisation durchgeführt werden, beispielsweise nach TQM oder nach ISO 9000, können integriert werden, um die Qualität des Projekts und die des Produkts zu verbessern.[1]

Magisches Dreieck

Wie generell im Projektmanagement ist dem permanenten Zielkonflikt zwischen Qualität, Kosten und Zeit Rechnung zu tragen.[2]. Speziell in Softwareprojekten steht die Projektleitung häufig unter hohem Termindruck und ist einem besonders hohen Risiko ausgesetzt, die Qualität zu vernachlässigen.[3]

Aufgrund der Komplexität von Informationssystemen sind „absolute“ Sicherheit bzw. Qualität nicht ökonomisch realisierbar. Daher werden zur Kategorisierung und Priorisierung häufig Methoden des Risikomanagements eingesetzt, um für das jeweilige Projekt ein adäquates Maß an Systemsicherheit und -qualität zu gewährleisten.

Aspekte des Risikomanagements sollten über den gesamten System-Lebenszyklus, also beginnend mit dem Konzept, über die Entwicklung oder Programmierung, Implementierung und Konfiguration und während des Betriebes bis hin zur Stilllegung des Systems berücksichtigt werden.

Im Zusammenhang mit der Projektentwicklung ist hier die Systemanalyse zur Projektvorbereitung gemeint. Gegenstand ist die inhaltliche Erfassung der Anforderungen durch Befragung künftiger Anwender sowie die systematische Untersuchung weiterer sachlicher und technischer Anforderungen und Randbedingungen (Schnittstellen zu Drittsystemen, gesetzliche Anforderungen u.dgl.). Ergebnis ist meist ein Fachkonzept, oftmals auch gleich ein Lastenheft.

Ein Pflichtenheft enthält sämtliche Funktionen und Anforderungen an ein Programm. Darin wird festgelegt, welche Funktionen verlangt sind und was diese genau tun. Anhand dieser Übersicht werden die grundlegenden technischen Entwurfsentscheidungen getroffen, und daraus wird die Systemarchitektur abgeleitet. Im Falle einer Beauftragung eines Dienstleistungsunternehmens ist das Pflichtenheft die vertragliche Grundlage für die vereinbarten Leistungen. Deshalb ist die Vollständigkeit und Richtigkeit der darin getroffenen Festlegungen und Anforderungen von besonderer Bedeutung für den Auftraggeber.

Ein Systemanalytiker bzw. -designer, bei kleineren Projekten auch der Programmierer, legt anhand des Pflichtenhefts die Programmarchitektur fest. Soweit Standardsoftwareprodukte zum Einsatz kommen, erfolgt in dieser Phase auch eine Spezifikation der geplanten Produkteinbindung bzw. -anpassung. Für neu zu entwickelnde Software erfolgt der Entwurf des Datenmodells und der einzelnen Funktionen und Algorithmen bzw. der Objekt- und Klassenstruktur. Falls bereits vorhandene Software angepasst (adaptiert) werden muss, so wird in dieser Phase festgelegt, welche Veränderungen und Erweiterungen erforderlich sind. Das Ergebnis des Systemdesigns wird auch DV-Konzept genannt.

In der Implementierungsphase wird die zuvor konzipierte Anwendungslösung technisch realisiert, indem Softwareprodukte konfiguriert, vorhandene Software angepasst oder Programme bzw. Programmteile vollständig neu erstellt werden.

Eine Neuerstellung von Software erfolgt meist durch Programmierung, d. h. die einzelnen Funktionen, Objekte, Klassen u.s.w. werden in einer Programmiersprache mit Hilfe einer Integrierten Entwicklungsumgebung codiert.

Die Software wird im Softwaretest in zweierlei Hinsicht getestet, zum einen

  • technisch, d. h. auf eine korrekte Umsetzung des DV-Konzepts und auf Programmfehler, und zum anderen
  • inhaltlich, d. h. auf Vollständigkeit bezüglich des Pflichtenhefts und Eignung für den vorgesehenen Zweck.

Während der Systemtest eine alleinige Angelegenheit des Auftragnehmers ist, erfolgt der Verfahrenstest meist in Zusammenarbeit mit den Endanwendern des Auftraggebers.

Es gilt in der Softwareentwicklung als normal, dass Programme fehlerhaft sind. Gelegentlich müssen sogar ganze Teile vollständig neu umgesetzt, also neu programmiert werden. Da in komplexeren Applikationen nicht mit Sicherheit ausgeschlossen werden kann, dass geänderte Programmteile nicht etwa andere Programmfunktionen beeinflussen können (Nebeneffekte), sollte nach der Fehlerbeseitigung ein erneuter vollständiger Test des Gesamtsystems erfolgen. Bis zur endgültigen Freigabe der Software sind meist mehrere Test- und Fehlerbeseitigungszyklen (iteratives Vorgehen) erforderlich.

Die fertiggestellte Software nebst eventuell erforderlicher Standardsoftwareprodukte, Hardware u. ä. wird sodann im Zuge der Installation auf den Computersystemen des Auftraggebers oder des Betreibers (eines Application Service Providers) aufgespielt und betriebsbereit gemacht. Hierbei wird oftmals zwischen parallelen „Produktiv“-, „Test“-, „Schulungs“- und „Entwicklungs“-Installationen unterschieden.

Je nach technischer Plattform erfolgt die Installation auf Zentralrechnern (Server) oder auf den Arbeitsplatzrechnern oder beides. Bei Datenbankanwendungen erfolgt ggf. noch ein Tuning der Datenbank. In einigen Fällen erfolgt noch eine Migration aus älteren Anwendungslösungen.

Bei größeren Projekten erfolgt oftmals zunächst nur eine Installation auf einem Testsystem bzw. bei wenigen Pilot-Anwendern. Die nachfolgende Ausweitung (Installation und Inbetriebnahme) auf weitere Standorte nennt man Rollout.

Wesentlicher Teil des Projekts ist die Einführungsunterstützung, insbesondere in Form von Schulung bzw. Einweisung der Endanwender, Power User und Administratoren.

Nach der Inbetriebnahme einer Softwarelösung ist eine kontinuierliche Weiterbetreuung erforderlich und üblich. Diese umfasst sowohl eine Unterstützung der Anwender z. B. per Hotline im laufenden Betrieb als auch Erweiterungen der Software bei Bedarf. Bei externer Softwareerstellung / Projektabwicklung wird beides in einem Support-Vertrag geregelt.

Dabei wird zwischen einem First-level-Support und einem Second-level-Support unterschieden. Der First-level Support (auch Helpdesk) ist erste Anlaufstelle für alle eingehenden Unterstützungsfragen und nimmt alle Problemmeldungen entgegen. Er leitet aber nur schwerwiegende Probleme an den Second-level-Support, bei Standardsoftware z. B. beim Produkthersteller, weiter.

Die laufende Anpassung der Software an sich ändernde Anforderungen oder Umgebungsbedingungen, z. B. an neue Versionen verwendeter Standardsoftware, wird als „Softwarepflege“ bezeichnet. Größere Veränderungen werden über eigene Wartungsprojekte bearbeitet, kleinere Anpassungen häufig als Wartungsaufgaben mit einfacheren Prozessregeln. Das Management des nachträglichen Einbringens von Änderungen in ein laufendes System nennt man Veränderungsmanagement.

  • ISBN 3-8274-0480-0.
  • ISBN 3-89864-268-2.
  • ISBN 3-446-22429-7.
  • ISBN 0-321-21026-3.
  • Thomas Grechenig, Mario Bernhart, Roland Breiteneder, Karin Kappel: Softwaretechnik – Mit Fallbeispielen aus realen Projekten Pearson Studium, München 2009, ISBN 3-86894-007-3.
  1. ISBN 978-1-930699-21-2, S. 95–103
  2. Kessler, Heinrich; Winkelhofer, Georg: Projektmanagement. 4. Auflage. Heidelberg 2004, Springer. S. 55–56
  3. Wendt, Dierk (Sprecher der Arbeitsgruppe): Klassische Fehler in der Software-Entwicklung, TU Ilmenau, Version vom 6. Oktober 2005, abgerufen am 9. Februar 2011


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Software

aus www.ifq.de, der freien Enzyklopädie

Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Software (Begriffsklärung) aufgeführt.

Software ['s?f(t)w??] (dt. = weiche Ware [von] soft = leicht veränderbare Komponenten [...], Komplement zu 'Hardware' für die physischen Komponenten)[1] ist ein Sammelbegriff für ausführbare Programme und die zugehörigen Daten.[2] Sie dient dazu, Aufgaben zu erledigen, indem sie von einem Prozessor ausgewertet wird und so softwaregesteuerte Geräte in ihrer Arbeit beeinflusst.[3]

In diesem Sinne wurde der Begriff erstmals 1958 von John W. Tukey benutzt.[4] Durch das softwaregesteuerte Arbeitsprinzip kann eine starre Hardware individuell arbeiten.[3] Es wird heutzutage nicht nur in klassischen Computern angewendet, sondern auch in vielen anderen Systemen, wie beispielsweise in Waschmaschinen, Handys, Navigationssystemen und modernen Fernsehgeräten.

Inhaltsverzeichnis

Als Terminus wird 'Software' in zwei typischen Entgegensetzungen gebraucht:

Eine uneingeschränkte Definition beschreibt Software als 'Gegenstück zu Hardware', wobei Software hier jede Art von digitalen Daten umfasst, die auf einer Hardware gespeichert sein können,[5] von der Firmware (z. B. dem BIOS), dem Betriebssystem, den Anwendungsprogrammen bis hin zu allen (möglichen) Dateien eines softwaregesteuerten Gerätes.

Die physischen Bestandteile eines Computersystems (die Geräte selbst, zuzüglich Kabel, etc.) werden unter dem Begriff 'Hardware' zusammengefasst. Ein Datenträger ist Teil der Hardware. Auf ihm wird Software zu Informationszwecken gespeichert. Sie ist dafür gedacht, von einem Prozessor interpretiert zu werden: Sie beschreibt in Form von Anweisungen, was der Prozessor tun soll (z. B. "x + y") und konkretisiert darüber hinaus den genauen Verlauf der Abarbeitung anhand weiterer Daten (z. B. "5 + 3"). In diesem vollen Umfang wird Software von einem Prozessor interpretiert, weshalb in der Veranschaulichung von Software als Gegenstück zur Hardware der Programmcode und die zur Verarbeitung bestimmten Daten zusammen als Software betrachtet werden.

Je nach Zusammenhang ist bei der Entgegensetzung eine oder mehrere der folgenden Bedeutungen gemeint:

  • Leicht veränderbare Komponente (Software) vs. schwer veränderbare Komponente (Hardware) in einem Computerdesign[1]
  • Universelle Maschine (Hardware) vs. Instruktionskode (Software)
  • Nicht-greifbar im Sinne von Funktionsbestandteilen eines Computersystems, die sich „nicht anfassen lassen[6] (Software) im Gegensatz zu den greifbaren Komponenten (Hardware). Software ließe sich über eine Telefonleitung übertragen, Hardware dagegen nicht.

Die Gegensätze sind in der englischsprachigen Begriffprägung (soft=weich, hard=hart) beabsichtigt.

Im allgemeinen Sprachgebrauch und in der Literatur zu Softwaretechnik wird die Definition von 'Software' eingeschränkt auf Computerprogramme und die mit ihnen eng verbundenen Ressourcen, wie z. B. Konfigurationsdaten neben Icons und Schriftarten, die zum Betrieb notwendig sind.[7] Die zur Verarbeitung bestimmten Daten (z. B. digitalisierte Musikstücke) werden hier meist nicht als Software verstanden.[8] Nach dieser Definition wird Software auch als Softwaresystem oder Softwareprodukt bezeichnet,[9] das als Beiwerk zusätzlich Bestandteile wie z. B. die Softwaredokumentation in der digitalen oder gedruckten Form eines Handbuchs enthalten kann.[10]

Auch die Begriffe Programm und Daten können einander entgegensetzt gebraucht werden, wobei 'Programm' dann die Funktion des Programms im Sinne als ausführende Instanz meint, 'Daten' das Bearbeitete.

Diese Rollen können ggfls. je nach Lage der Dinge vertauscht werden. Ein Quellprogramm, das von einem Übersetzer in ein Maschinenprogramm umgewandelt wird, tritt wie das erzeugte Binärprogramm als Daten auf. Ähnlich wie Hardware ein (als Daten aufgefasstes) Binärprogramm in dessen Funktion (Aktivität) umwandelt, kann dies auch ein Interpreter mit einem Quellprogramm oder ein Emulator mit dem Binärprogramm.

Dieser Zusammenhang, dass ein Programm sowohl als Daten als auch als Funktion auftreten kann, ist zentral in verschieden Disziplinen der Informatik, darunter die theoretische Informatik (u. a. Rekursionstheorie, Automatentheorie, Domaintheorie), und die technische Informatik (z. B. Von-Neumann-Architektur).

In den 1950er Jahren waren Software und Hardware noch verbunden und als Einheit wahrgenommen. Die Software war dabei Teil der Hardware und wurde als Programmcode bezeichnet. 1958 prägte der Statistiker John W. Tukey den Begriff Software erstmalig.[4]

Später sorgte dann die Entscheidung der US-Regierung in den 1970er Jahren für eine Neuheit, dass IBM auf Rechnungen Software und Hardware getrennt zu berechnen und aufzuführen habe. Dies entsprach einer Anerkennung der Einzelhaftigkeit von Software von offizieller Seite und einer endgültigen Aufspaltung von Hardware und Software bzw. einer Abgrenzung der Software von der Hardware.

Dieser Entwicklung folgte dann in den 1970er Jahren die Gründung von Firmen, die erstmalig nur mit Software handelten und nur Software und keine Hardware entwickelten. Zu diesen Firmen gehörte in den USA Microsoft und in Deutschland SAP. Die Existenz solcher Firmen erscheint im 21. Jahrhundert als Selbstverständlichkeit, stellte damals jedoch eine erhebliche Neuentwicklung dar.

Der logische Übergang zwischen Hard- und Software lässt sich an den ersten Spielhallenspielen verdeutlichen, wie das Spiel Breakout. Einstmals bestand deren komplettes Programm (der Ablauf, die Logik) bildlich gesehen aus „vorverdrahteten Schalttafeln“.[11] Sie verwendeten keinen Prozessor. Erst später, als solche Spiele für Computer programmiert wurden, und man anfing bei prozessorgesteuerten Geräten zwischen den Begriffen 'Hardware' und 'Software' zu unterscheiden, gab es diese Spiele als Software. Das Spiel bestand nicht mehr aus „vorverdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren Informationen, die gemeinsam auf einem Datenträger hinterlegt wurden.

Software ist immateriell[6] und besteht aus den Sprachen und Notationen, in denen sie formuliert ist.[3] Software kann zwar auf bestimmten Medien gespeichert, gedruckt, angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern enthalten sie nur.

Auch physisch gesehen können sogar die Bits, die die Software abbilden, immateriell sein. So weisen Datenträger als der Teil der Hardware eine bestimmte Beschaffenheit auf. In einem für Computer üblichen Binärsystem manifestiert sich die gemeinte Beschaffenheit in Form von gesetzten oder gelöschten Bits (den digitalen Daten), die darauf gespeichert werden. Elektronisch gesetzte Bits haben für sich keine Substanz und lassen sich somit „nicht anfassen“. Zur Veranschaulichung lässt sich ein Computer vorstellen, auf dem eine andere Variante des Betriebssystems installiert wird. Dafür muss die Hardware nicht erweitert oder ausgetauscht werden, was bedeutet, dass das Gerät äußerlich unverändert wirkt. Tatsächlich wird nur die Eigenschaft der Datenträger verändert; es werden Bits elektronisch gesetzt beziehungsweise gelöscht. Dennoch arbeitet das System dank der aktualisierten Software anders als zuvor, weil die gesetzten (geänderten) Eigenschaften vom Prozessor interpretiert werden.

Es ist zwar vorstellbar, Bits sichtbar und greifbar auf einem Trägermedium zu hinterlegen, doch grundsätzlich ist 'Software' ein abstrakter, von Trägermedien unabhängiger Begriff. Das trifft für den Gattungsbegriff ohnehin zu, aber auch für konkrete Ausprägungen wie ein bestimmtes Anwendungsprogramm.[12] Als Analogie dazu ist es für den Begriff 'Oper' oder 'Zauberflöte' nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist.

Innerhalb der Softwaretechnik wird eine einheitliche solide, konsistente und systematische Begriffsbildung durch eine hohe Innovationsgeschwindigkeit und Praxisnähe behindert.[13] So wird je nach gegebenem Zusammenhang unter 'Software' Unterschiedliches verstanden, zum Beispiel:

  • Im Zusammenhang mit der Ausführung auf einem Computer wird unter Software primär alles verstanden, was auf dem Rechner ausgeführt werden kann (das Programm im engeren Sinn, bestehend aus Befehlen und Datendefinitionen). Hinzu kommen die „mit [den Programmen] eng verbundenen Ressourcen, die zum Betrieb der Software zwingend erforderlich sind“.[14] Dies sind zum Beispiel Konfigurationsdateien, Schriftart-Dateien, Lookup-Tabellen, Datenstrukturen für Datenbanken und Datenbestände.
  • In engstem Sinn wäre unter 'Software' nur von der Hardware ausführbarer Maschinencode zu verstehen. Jedoch fällt darunter auch alles, was durch beliebige 'interpretierende Systeme', die Teil der Systemsoftware sind, ausgeführt werden kann, wie das bei Verwendung höherer Programmiersprachen und Entwicklungsumgebungen nahezu immer der Fall ist.[3]
  • Weiterhin können mit 'Software' unterschiedliche Mengen gemeint sein: Im engeren Sinn ist einzelnes Programm 'Software'. Jedoch wird etwa eine aus einer Vielzahl von Einzelprogrammen bestehende Buchhaltungsanwendung ebenfalls 'Software' genannt. Ebenso ein (nicht selbstständig lauffähiges) Unterprogramm, alle Anwendungen eines Unternehmens als Gesamtheit, die zum Betrieb der Programme gehörenden Daten(bank)strukturen und die verschiedensten Komponenten der Systemsoftware inkl. dem Betriebssystem.[15]
  • Im Zusammenhang mit dem Urheberrechtsschutz für Software gilt i. d. R. der 'Quellcode' als Schutzgegenstand.[16]
  • Im Kontext Erwerb von Software (als 'Softwareprodukt') gehört auch die Dokumentation zur 'Software'.[17]
  • Im weitesten Sinn und aus der Entstehungsgeschichte abgeleitet, ist Software alles, was nicht Hardware ist.[3] In diesem Zusammenhang gilt zum Beispiel auch jede Form von Daten als Software.

Der Begriff 'Software' wird also sowohl für konkrete einzelne Aspekte benutzt, als Gattungsbegriff für unterschiedliche Arten von Software und als Sammelbegriff für beliebige Mengen.

Software kann aus vielen unterschiedlichen Gesichtspunkten betrachtet werden, zum Beispiel:

Softwar: Typisierung, Zusammenhänge, Überblick

„Zwischen Hard- und Software besteht eine gewisse Aufgabenverteilung: Die Hardware garantiert [...] Quantität, also Tempo und Speicherkapazität, die Software sorgt für [...] die Abbildung der Anforderungen [...] auf die strukturell primitive Hardware“.[3]

Obwohl dem Begriff 'Software' teilweise Attribute wie Flexibilität, Individualität, Leistungsfähigkeit etc. zugeschrieben werden, wird letztlich alles, was der Computer 'tatsächlich tut', nicht von der Software, sondern ausschließlich durch die Hardware ausgeführt. Software 'beschreibt' lediglich, was getan werden soll und in welcher Form dies geschieht.

Dazu wird auf unterster Ebene der Maschinencode der Software über das Betriebssystem (d. h. ebenfalls durch dessen Maschienbefehle) in den Hauptspeicher des Computers geladen und dem Rechenwerk Schritt für Schritt (siehe Befehlszähler) zur Ausführung zugeführt.

Der Maschinencode muss hierzu in einer Form/Struktur vorliegen, die von der Hardware über deren darin implementierte Schnittstelle interpretiert und ausgeführt werden kann.[18] Inhalt und Struktur der Befehle zeigen an, was zu tun ist, welche Datenbereiche im Hauptspeicher dabei benutzt oder verändert werden sollen (über die im Befehlscode enthaltenen Registerangaben) und ggf. an welcher Stelle das Programm fortzusetzen ist.

Dieses Arbeitsprinzip gilt für jede Art von Software, auch wenn sie z. B. von Interpretern ausgeführt wird: Diese sind ebenfalls Software, die über ihren Maschinencode an der Hardwareschnittstelle wie beschrieben ausgeführt wird, was auch für Compiler und jede andere Systemsoftware gilt. Bei der Ausführung wirken also viele Schichten zusammen und führen als Gesamtheit zu Zustandsänderungen in der Hardware bzw. final zu den vorgesehenen Ergebnissen, etwa der Ausgabe einer Druckzeile, einem Datenzugriff oder der Anzeige eines Feldinhalts am Bildschirm. Bei in höheren Programmiersprachen entwickelten Anwendungen können so schon für relativ einfache Funktionen (wie Lesen aus der Datenbank) oft Hunderttausende oder Millionen von Maschinenbefehlen durchlaufen werden.

Das in modernen Computern mögliche parallele Ausführen mehrerer Programme/Prozesse wird im Wesentlichen durch das Betriebssystem bewirkt, das bei bestimmten Ereignissen den Wechsel von einer zur anderen 'Task einleitet und verwaltet. Siehe auch Multitasking.

Im systematischen Zusammenwirken vieler Komponenten, das nur unter Anwendung klar definierter Schnittstellen möglich ist, „gehört Software also zu den komplexesten Artefakten, die Menschen bislang geschaffen haben“.[3]

Hauptartikel: Softwaretechnik
  • Software wird unter Nutzung bestimmter Verfahren, Methoden und 'Werkzeuge' entwickelt. Dabei werden unterschiedliche Entwicklungsstadien durchlaufen, in denen jeweils unterschiedliche Zwischenstände der Software entstehen: Analysetätigkeiten (zahlreiche Entwicklungsdokumente) > Programmierung (Quellcode) > im Betrieb (Maschinencode oder ausführbarer Code). Im engeren Sinn der Ausführung auf dem Computer gilt lediglich Letzteres als 'Software'. Siehe auch Softwareentwicklung.
  • In diesem Zusammenhang ist Software Bearbeitungsgegenstand von Systemprogrammen: Wenn z. B. ein Compiler den Quellcode eines Programms liest, verarbeitet und einen Maschinen- oder Zwischencode erzeugt, so sind das aus dessen Sicht 'Daten'.
  • Einmal erzeugte Software kann mit verhältnismäßig geringen Kosten vervielfältigt werden, die meist durch Datenträger, Werbung und dem Herstellen von Verpackung und zu Papier gebrachten Dokumentationen anfallen.
  • Software verschleißt nicht durch Nutzung, unterliegt jedoch mit der Zeit der Softwarealterung.
  • Software ist meist austauschbar, fähig zur Aktualisierung, korrigierbar und erweiterbar, insbesondere dann, wenn bestehende Richtlinien eingehalten werden und der Quelltext verfügbar ist.
  • Software tendiert dazu, umso mehr Fehler zu enthalten, je komplexer sie ist. Fehler werden in aktualisierten Softwareversionen oder mithilfe eines Patches und i.d.R. nach Durchführung von Softwaretests behoben. Softwarefehler bezeichnet man auch als Bugs.
  • Weil Software unter Einsatz vieler unterschiedlicher Programmiersprachen und in vielen unterschiedlichen Betriebssystemen und Systemumgebungen entwickelt werden kann, sind Softwarestandards erforderlich, um Informationen system- und unternehmensübergreifend 'verstehbar' und austauschbar zu machen. Siehe auch Elektronischer Datenaustausch (Beispiele), Programmierstil.
Hauptartikel: Software-Akquisition

In der Entscheidung zur Anschaffung von Software lässt sich i. W. der Einsatz von Standardsoftware oder die eigene Herstellung (Individualsoftware) unterscheiden. Besonders im betrieblichen Umfeld zieht diese Entscheidung häufig hohe Kosten nach sich. Auch können solche Entscheidungen Grundlage zur Umsetzung der Unternehmensstrategie sein oder sollen Unternehmensprozesse maßgeblich verbessern. Zur Vermeidung von Fehlinvestitionen sollte der Anschaffung ein systematischer Entscheidungsprozess vorausgehen.

Hauptartikel: IT-Service-Management
  • Der Einsatz von Software erfordert je nach Einsatzbereich ein gewisses Maß an Organisation, um die zusammengehörenden Teile richtig einzusetzen und durch neue Versionen abzulösen (zum Beispiel in größeren Unternehmen im Releasemanagement).
  • Mitunter kann Software vorkonfiguriert werden, um so eine Neuinstallation zu beschleunigen und um Fehler bei der Konfiguration zu minimieren.

Im Wesentlichen für betriebliche Anwendungssoftware geltend kann Software aus (betriebs-)wirtschaftlicher Sicht als 'im Voraus geleistete geistige Arbeit', also als Investition betrachtet werden. Zum Beispiel erarbeiten die Programmautoren ein Lösungsverfahren für die korrekte Trennung aller deutschen Wörter in einem Textverarbeitungsprogramm. Damit ist im Voraus, also bevor diese Tätigkeit tatsächlich anfällt, schon für alle Schreiber, die mit diesem Textverarbeitungsprogramm arbeiten, die geistige Arbeit „korrektes Trennen deutscher Wörter“ geleistet. Dabei wird die Eigenschaft von Computern genutzt, auf sie verlagerte Aufgaben erheblich schneller und zuverlässiger ausführen zu können als dies bisher Menschen möglich war. Besonders auch in der Softwareentwicklung wird intensiv auf „im Voraus“ entwickelte Algorithmen und Codeteile zurückgegriffen werden ('Software-Wiederverwendung').

Ein ähnlicher Zusammenhang wird in der Arbeitssoziologie gesehen: Derartige softwarebasierte Maßnahmen sind geeignet, Arbeitsinhalte und -Abläufe erheblich zu verändern. Die Bandbreite reicht dabei vom Bereitstellen einfacher Hilfsmittel (etwa zur Summierung oder Durchschnittsermittlung) bis hin zur völligen Umgestaltung von Prozessen (durch Konzentration früher getrennter oder durch Zerlegung früher zentralisierter Arbeitsabläufe) – oder gar bis zu deren vollständigen Ersatz durch IT-Lösungen. Brödner et al nennen dies in[19] »materialisierte« Kopfarbeit. Siehe auch Rationalisierung, Optimierung, Taylorismus.

Software lässt sich nach verschiedenen Kriterien unterscheiden.

Unterteilung nach der Nähe zur Hardware beziehungsweise Anwender
  • Systemsoftware, die für grundlegende Funktionen des Computers erforderlich ist. Hierzu zählen insbesondere das Betriebssystem sowie Gerätetreiber.
  • systemnahe Software, der Bereich zwischen Betriebssystem und Anwendungssoftware z. B. Dienstprogramme, Datenbank-Verwaltungswerkzeuge, Programmierwerkzeuge und Middleware.
  • Anwendungssoftware, die den Benutzer bei der Ausführung seiner Aufgaben unterstützt und ihm dadurch erst den eigentlichen, unmittelbaren Nutzen stiftet
Unterteilung nach Art der Herstellung
  • Standardsoftware: Wird von einem Softwareanbieter erstellt, und kann von Kunden erworben werden
  • Individualsoftware: für einen (oder von einem) einzelnen Anwender individuell erstellt

Rechtlich wird beim Erwerb von Software zwischen Individualsoftware und Standardsoftware unterschieden: Für Individualsoftware wird ein Werkvertrag bzw. Werklieferungsvertrag abgeschlossen, der Erwerb von Standardsoftware gilt als Sachkauf.

Siehe auch: Seriennummer, Spyware, Langzeitarchivierung, Gebraucht-Software

Software nach der Art der Einbettung
  • nicht eingebettete Software (Software, die installiert wird)
  • fest in einem Gerät zu dessen Steuerung untergebrachte Software (z. B. in einem ROM), bezeichnet man als Firmware oder auch Eingebettete Software.
Einstufung nach Nutzungsrecht (Lizenz)
  • Adware
  • Beerware
  • Cardware (auch Postcardware)
  • Careware
  • Crippleware
  • Donationware
  • Freeware
  • Nagware
  • Shareware
  • Freie Software
Unterteilung nach Quellcode-Veränderbarkeit
  • Freie Software
  • Open Source
  • Proprietäre Software
Einstufung nach Verfügbarkeit
  • Abandonware
  • Vaporware
Andere Unterteilungen
  • Portable Software
  • Bananenware (unausgereifte Software)
  • Schlangenöl (Programm ohne echte Funktion, wird aber als Wundermittel angepriesen)
  • Shovelware (Sammlung von Software, wobei die Quantität zählt)
  • Riskware
  • Bloatware (mit Funktionen ohne synergetischen Nutzen überladene Software)

Die Verbreitung und Nutzung von Software unterliegt dem Urheberrecht. Es gibt in diesem Zusammenhang mehrere typische Überlassungsmodelle:

Verkauf
Der vollständige Verkauf von Software, inklusive der Überlassung von Weiterverbreitungsrechten, kommt praktisch nur zwischen Unternehmen vor, in der Regel im Rahmen von Auftragsprogrammierung oder beim Verkauf eines Softwareentwicklungsunternehmens.
Nutzungsrecht
Bei der meisten Software, die zum Beispiel für PCs „gekauft“ werden kann, wird in Wirklichkeit nur ein Nutzungsrecht überlassen. Dieses Modell ist auch bei der Auftragsprogrammierung üblich, bei der ein Unternehmen ein Programm für den Eigengebrauch eines anderen Unternehmens speziell entwickelt. Bei Freeware ist dieses Recht kostenlos, was nicht mit freier Software verwechselt werden darf.
Software as a Service
Die Software wird bei einem Dienstleister gehostet, die eigentliche Nutzung der Software kann entweder pro Zeitraum oder pro Nutzungseinheit berechnet werden und kann oft mit einem einfachen PC und z. B. per Webbrowser genutzt werden.
Freie Software/Open Source/GPL
Freie Software darf von jedem genutzt, beliebig verändert und weiterverbreitet werden. Oft unterliegt dieses Recht gewissen Einschränkungen, wie zum Beispiel der Nennung des Autors oder die Verpflichtung, veränderte Versionen unter die gleiche Lizenz zu stellen (GPL). Software, die nicht zu dieser Gruppe zählt, wird proprietär genannt.

Zwischen den oben genannten Hauptformen der Softwareverbreitung gibt es zahlreiche Zwischen- und Mischstufen.

Siehe auch: Lizenzen der freien Software, Lizenzmanagement

Hauptartikel: Freie Software und Open Source

‚Freie Software’ ist eine soziale Bewegung, die unfreie Software als gesellschaftliches Problem begreift.[20] Wobei „frei“ hier nicht „kostenlos“ bedeutet (‚Freie Software’ ist nicht dasselbe wie ‚Freeware’), sondern die Freiheiten für die Gesellschaft meint, die ein derart lizenziertes (auch kommerzielles) Produkt bietet. In den Augen der von Richard Stallman 1985 gegründeten Free Software Foundation (FSF) ist die Entscheidung für oder gegen freie Software deshalb primär eine ethische und soziale Entscheidung.

Dagegen begreift die 1998 gegründete Open Source Initiative (OSI) quelloffene Software als bloßes Entwicklungsmodell, wobei die Frage, ob Software quelloffen sein sollte, dort eine rein praktische und keine ethische Frage ist. Die FSF wirft der OSI daher eine Ablenkung von den wesentlichen Punkten vor.[21] Eric S. Raymond hat den Begriff ‚Open Source’ in der Annahme eingeführt, dass das unpopuläre Thema ‚Freiheit’ Geldgeber für solche Projekte abschrecken könne.

Auch wenn es sich heute um zwei unterschiedliche Bewegungen mit unterschiedlichen Ansichten und Zielen handelt, verbindet sie die gemeinsame Wertschätzung für quelloffenen Code, was in zahlreichen Projekten mündet, in denen sie zusammenarbeiten.

Hauptartikel: Softwaretechnik

Die Entwicklung von Software ist ein komplexer Vorgang. Dieser wird durch die Softwaretechnik, einem Teilgebiet der Informatik, systematisiert. Hier wird die Erstellung der Software schrittweise in einem Prozess von der Analyse über die Softwaremodellierung bis hin zum Testen als wiederholbarer Prozess beschrieben.

In aller Regel wird die Software nach der Entwicklung mehrfach angepasst und erweitert. Der Software-Lebenszyklus kann durchaus mehrere Jahre betragen.

  • Softwareunternehmen
  • Softwarekrise
  • Softwarequalität, Softwarequalität nach ISO
  • John W. Tukey: The Teaching of Concrete Mathematics. In: The American Mathematical Monthly. Vol. 65, no. 1 (Jan. 1958), pp 1–9. (Erstmalige Verwendung des Begriffs Software im heutigen Sinn)
  • F. R. Shapiro: Origin of the term software: Evidence from the JSTOR electronic journal archive. In: IEEE Annals of the History of Computing. 22 (April–June 2000), 69.
  • Sebastian von Engelhardt: Die ökonomischen Eigenschaften von Software. In: Jenaer Schriften zur Wirtschaftswissenschaft. 14/2006, Friedrich-Schiller-Universität Jena, Wirtschaftswissenschaftliche Fakultät, ISSN 1611-1311.
  1. ISBN 3-411-05232-5
  2. ISBN 978-3-409-12725-7
  3. [1]
  4. a b linfo.org – Software Definition, 1958, Januar-Ausgabe des American Mathematical Monthly (Titel: The Teaching of Concrete Mathematics). Tukey schreibt: „Today the "software" comprising the carefully planned interpretive routines, compilers, and other aspects of automative programming are at least as important to the modern electronic calculator as its "hardware" of tubes, transistors, wires, tapes and the like.“
  5. linfo.org – Software Definition, Zitat: „[…] In a broader sense it can also refer to all information (i.e., both programs and data) in electronic form, and it can provide a distinction from hardware, which refers to media and systems on which software can exist and be used […]“
  6. ISBN 978-3-8274-1705-3, 2009, 3. Auflage, S. 9: „Software ist ein immaterielles Produkt. Software kann man nicht anfassen und nicht sehen.“
  7. http://www.wissen.de/wde/generator/wissen/ressorts/technik/computer/index,page=1207964.html
  8. Auszug aus lexikon.meyer.de: „[...] Im allgemeinen Sprachgebrauch wird die Bezeichnung Software meist nur auf Programme bezogen, nicht aber auf andere Daten [...]“ (eine Verlinkung dahin ist nicht mehr möglich, da „Meyers Lexikon Online“ zum 23. März 2009 eingestellt wurde).
  9. ISBN 978-3-8350-0197-8.
  10. Lehr- und Übungsbuch Informatik 1. Hanser Verlag, 2003, Seite 311
  11. ISBN 978-3-423-34507-1, S. 144-149
  12. ISBN 978-3-941875-29-6, S. 35: „Weil Software Gegenstand einer schöpferischen Leistung ist, die man nicht anfassen kann, wird ihr zum Teil die Sachqualität abgesprochen.“
  13. ISBN 978-3-8274-1705-3, 2009, 3. Auflage, S. 3
  14. Wissen.de [2]
  15. dpunkt.de, in Kap. "Software spiegelt die Realität": Software-Systeme werden nicht monolithisch gebaut, sondern bestehen aus Modulen oder Komponenten, die miteinander die Gesamtfunktionalität des Systems bieten.
  16. softwarepatents.eu, "Programmcode in seiner linguistischen Form als Sprachwerk"
  17. Hanser Verlag Lehr- und Übungsbuch Informatik 1.' 2003, Seite 311
  18. Klaus Wüst Mikroprozessortechnik Kap. 7.5.4 ISA - Instruction Set Architecture [3] Die ISA [Diese Form] ist genau das, was für die Erstellung von Maschinenprogrammen bekannt sein muss.
  19. ISBN 3-8031-2082-9
  20. The Selected Essays of Richard Stallman (aktualisierte Fassung): "Open Source ist ein Entwicklungsmodell. Freie Software ist eine soziale Bewegung. Für die Open-Source-Bewegung ist nicht-freie Software eine suboptimale Lösung. Für die Freie-Software-Bewegung ist nicht-freie Software ein soziales Problem und freie Software ist die Lösung."; ursprüngliche Fassung: "Für die Freie-Software-Bewegung ist freie Software ein ethisches Gebot ... nicht-freie Software ist ein gesellschaftliches Problem ..."
  21. http://www.gnu.org/philosophy/free-software-for-freedom.de.html


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Internet

aus www.ifq.de, der freien Enzyklopädie

Das Internet (von englisch interconnected network), kurz das Netz, ist ein weltweites Netzwerk, bestehend aus vielen Rechnernetzwerken, durch das Daten ausgetauscht werden. Es ermöglicht die Nutzung von Internetdiensten wie E-Mail, Telnet, Usenet, Dateiübertragung, WWW und in letzter Zeit zunehmend auch Telefonie, Radio und Fernsehen. Im Prinzip kann dabei jeder Rechner weltweit mit jedem anderen Rechner verbunden werden. Der Datenaustausch zwischen den einzelnen Internet-Rechnern erfolgt über die technisch normierten Internetprotokolle. Die Technik des Internets wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben. Umgangssprachlich wird „Internet“ häufig synonym zum World Wide Web verwendet, da dieses einer der meistgenutzten Internetdienste ist und wesentlich zum Wachstum und der Popularität des Mediums beigetragen hat. Im Gegensatz dazu sind andere Mediendienste wie Telefonie, Fernsehen und Radio erst kürzlich über das Internet erreichbar geworden und haben parallel dazu ihre ursprüngliche Verbreitungstechnik.[1] Das Internet hat durch seine neuartige Technik und Verwendung eine eigene Sprachlichkeit hervorgebracht.

Visualisierung der verschiedenen Routen durch Teile des Internets.

Inhaltsverzeichnis

Der Begriff ‚Internet‘ ist ein Anglizismus, der sich aus der ursprünglich rein fachbezogenen Benutzung im Rahmen der gesellschaftlichen Durchdringung unverändert in der Alltagssprache als Eigenname zusammen mit der Kurzform Netz etabliert hat. Er wurde aus der Beschreibung „Interconnected Networks“, also „mit-/untereinander verbundene Netzwerke“, auch „Zusammengeschaltete Netzwerke“, gebildet, da das Internet aus einem Zusammenschluss zahlreicher Teilnetze mittels der technischen Standards des sehr dezentral strukturierten ARPANETs entstand.

Sprachkritiker, wie beispielsweise verschiedene Sprachvereine verwenden selber für Internet deutsche Synonyme wie Weltnetz, Zwischennetz oder Internetz. Obwohl seit Mitte der 1990er Jahre bekannt, sind diese Synonyme zwar in diversen sprachkritischen Publikationen zu finden[2], haben aber in der Alltagssprache keine praktische Bedeutung erlangt.[3] Weder Weltnetz[4] noch Zwischennetz[5] sind – im Gegensatz zu Internet – bis heute in den Duden (24. Auflage) aufgenommen worden. Eine besondere Verbreitung findet der Begriff Weltnetz in rechtsextremen Kreisen.[6][7]

Der Begriff Internet kann auch nach den Methoden der wissenschaftlichen Definitionslehre definiert werden. Danach handelt es sich beim Internet um ein Kommunikationsmittel, das durch die weltweite Verknüpfung von Computern zwecks Austausch von Text-, Bild-, Musik- und Videodateien gekennzeichnet ist.

Hauptartikel: Geschichte des Internets und Chronologie des Internets

Das Internet ging aus dem im Jahr 1969 entstandenen ARPANET hervor, einem Projekt der Advanced Research Project Agency (ARPA) des US-Verteidigungsministeriums. Es wurde zur Vernetzung von Universitäten und Forschungseinrichtungen benutzt. Ziel des Projekts war zunächst, die knappen Rechenkapazitäten sinnvoll zu nutzen, erst in den USA, später weltweit. Die anfängliche Verbreitung des Internets ist eng mit der Entwicklung des Betriebssystems Unix verbunden. Nachdem das Arpanet im Jahr 1982 TCP/IP adaptierte, begann sich auch der Name Internet durchzusetzen.

Nach einer weit verbreiteten Legende bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines Atomkrieges eine störungsfreie Kommunikation zu ermöglichen.[8][9] In Wirklichkeit wurden vorwiegend zivile Projekte gefördert, auch wenn die ersten Knoten von der ARPA finanziert wurden.

Die wichtigste Applikation in den Anfängen war die E-Mail. Bereits im Jahr 1971 überstieg das Gesamtvolumen des E-Mail-Verkehrs das Datenvolumen, das über die anderen Protokolle des Arpanet, Telnet und FTP, abgewickelt wurde. Im Jahr 1990 beschloss die US-amerikanische National Science Foundation, das Internet für kommerzielle Zwecke nutzbar zu machen, wodurch es über die Universitäten hinaus öffentlich zugänglich wurde. Tim Berners-Lee entwickelte um das Jahr 1989 am CERN die Grundlagen des World Wide Web. Am 6. August 1991 machte er dieses Projekt eines Hypertext-Dienstes im Internet mit einem Beitrag zur Newsgroup alt.hypertext öffentlich und weltweit verfügbar.[10]

Erster Web-Server am CERN

Rasanten Auftrieb erhielt das Internet seit dem Jahr 1993, als der erste grafikfähige Webbrowser namens Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde, der die Darstellung von Inhalten des WWW ermöglichte. Schließlich konnten auch Amateure auf das Netz zugreifen, was mit der wachsenden Zahl von Nutzern zu vielen kommerziellen Angeboten im Netz führte. Der Webbrowser wird deswegen auch als die „Killerapplikation“ des Internets bezeichnet. Das Internet ist ein wesentlicher Katalysator der Digitalen Revolution.

Neue Techniken verändern das Internet und ziehen neue Benutzerkreise an: IP-Telefonie, Groupware wie Wikis, Blogs, Breitbandzugänge (zum Beispiel für Vlogs und Video-on-Demand), Peer-to-Peer-Vernetzung (vor allem für File Sharing) und Online-Spiele (z. B. Rollenspiele oder Taktikshooter).

Das rasante Wachstum des Internets sowie Unzulänglichkeiten[11] für immer anspruchsvollere Anwendungen bringen es jedoch möglicherweise in Zukunft an seine Grenzen[12], so dass inzwischen Forschungsinitiativen begonnen haben, das Internet der Zukunft zu entwickeln.

Siehe auch: Web 2.0
Ein kleiner Ausschnitt des World Wide Web, dargestellt durch Hyperlinks.

Das Internet gilt bei vielen Experten als eine der größten Veränderungen des Informationswesens seit der Erfindung des Buchdruckes mit großen Auswirkungen auf diverse Bereiche des alltäglichen Lebens.

Schon Anfang der 1980er Jahre waren Mailbox-Netze entstanden, basierend auf Datenfernübertragung über das Telefonnetz oder auf Netzen wie Datex-P. Diese Technik blieb aber Experten vorbehalten, wie auch der Zugang zu weltweiten TCP/IP-Netzen lange Zeit nur über Universitäten möglich war. Erst mit kommerziellen Verbreitung der Internet E-Mail Anfang der 1990er und durchgreifend dann mit dem World Wide Web etablierte sich das Internet seit Mitte der 1990er Jahre zunehmend als Standard für die Verbreitung von Informationen jeder Art.

Waren dies in der Anfangszeit vor allem Kommunikation per E-Mail und der Selbstdarstellung von Personen und Firmen, folgte im Zuge der New Economy zum Ende des letzten Jahrtausends der Online-Handel. Mit steigenden Datenübertragungsraten und sinkenden Preisen und nicht zuletzt durch die Verfügbarkeit von DSL-Flatrates dient es auch der Verbreitung größerer Datenmengen. Hiermit verbunden sind vor allem massenhafte Urheberrechtsverletzungen, deren Bekämpfung heute einen Großteil der Internet-Gesetzgebung ausmachen.

Eine zunehmende Bedeutung erhält auch der Online-Journalismus, der heute zu einem großen Konkurrenten der klassischen Medienlandschaft geworden ist. Aktuell sehen Beobachter zudem einen Wandel des Nutzers vom „surfenden“ (passiven) Medienkonsumenten zum aktiven User Generated Content-Autor, der sich zu vielerlei Themen in Online-Communitys mit Gleichgesinnten vernetzt, die die klassische, bisher eher techniklastige Netzkultur ergänzt. Örtlich bedingte Grenzen sind im Internet völlig aufgehoben und werden durch themenbezogene Gruppen ersetzt. Durch die Vielzahl der Informationsquellen stellt der sinnvolle Umgang mit dem Internet größere Anforderungen an die Medienkompetenz der Benutzer als klassische Medien.

Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Netzes und durch Anonymität als schwer durchsetzbar angesehen werden. Bei Anwendungen wie E-Mail zeigt sich, dass die Technik auf das Phänomen des Spam überhaupt nicht vorbereitet ist. Dienste wie MySpace oder Facebook sollen den Aufbau Sozialer Netzwerke ermöglichen; Funktionen wie Instant Messaging erlauben online nahezu verzögerungsfreie Kommunikation. Mit der steigenden Verbreitung des Internets wird in den Medien der Begriff Internetsucht immer wieder thematisiert, der wissenschaftlich jedoch umstritten ist. Ob und wann die exzessive Nutzung des Internets einen „schädlichen Gebrauch“ oder Missbrauch darstellt und zur Abhängigkeit führt, wird in verschiedenen Studien aktuell untersucht.

Staatliche Stellen hatten lange Zeit von der Funktion des Internets wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Bis zur New Economy-Entwicklung ab dem Jahr 1998 war zudem die Bedeutung des Internets seitens der Politik unterschätzt worden. Dies änderte sich erst danach, Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsicherheiten zumindest de jure beseitigt. Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicherheit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat kritisiert, etwa durch das am 1. Januar 2008 in Kraft getretene Gesetz zur Vorratsdatenspeicherung, das am 3. März 2010 vom Bundesverfassungsgericht als verfassungswidrig eingestuft wurde. Auch international wird die Kontrolle des Internets durch den Staat aufmerksam beobachtet, etwa beim Internet in der Volksrepublik China.

Die EU-Kommission plante 1998 die Erstellung einer globalen Internet-Charta. Die Regeln sollten zuerst von den Teilnehmerländern und von Vertretern der Industrie und der Verbraucher innerhalb der EU besprochen werden und dann auf einer internationalen Konferenz als Grundlage einer Beratung dienen. Die Regelungen sollten nicht rechtsgültig verpflichtend sein, sondern nur als Leitlinie dienen. Vorgeschlagene Themenbereiche waren Sicherheit, Datenschutz und die Verschlüsselung. Dies solle internationale Geschäfte erleichtern.[13]

Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, welche zusammengeschaltet werden. Darunter sind hauptsächlich:

  • Providernetzwerke, an die die Rechner der Kunden eines Internetproviders angeschlossen sind,
  • Firmennetzwerke (Intranets), über welche die Computer einer Firma verbunden sind, sowie
  • Universitäts- und Forschungsnetzwerke.
Typische Verbindung zum Internet bei Heimanwendern
Typische Verbindung zum Internet bei Firmen

Physikalisch besteht das Internet im Kernbereich (in den Backbone-Netzwerken) sowohl kontinental als auch interkontinental hauptsächlich aus Glasfaserkabeln, die durch Router zu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr-Wachstums verlegt. Da sich die physikalisch mögliche Übertragungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber immens vergrößerte, besitzt das Internet hier zur Zeit teilweise Überkapazitäten. Schätzungen zufolge wurden im Jahr 2005 nur etwa 3 % der zwischen europäischen oder US-amerikanischen Städten verlegten Glasfasern benutzt[14]. Auch Satelliten und Richtfunkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen geringen Anteil.

Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupferleitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder UMTS, übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Kabelmodem oder UMTS, eines Internetproviders zu. Firmen oder staatliche Einrichtungen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet verbunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder - immer häufiger - Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.

In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer bereitstellen und welche nicht dauerhaft erreichbar sind. Solche Rechner werden als Client-Rechner bezeichnet. Server dagegen sind Rechner, welche in erster Linie Internetdienste bereitstellen. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell angebunden und die klimatisierten Räumlichkeiten sind gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer-Anwendungen versetzen auch obige Client-Rechner in die Lage zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen und so wird hier die strenge Unterscheidung des Client-Server-Modells aufgelöst.

An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungsstarke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht. Am DE-CIX in Frankfurt am Main, dem größten deutschen Austauschpunkt dieser Art, sind beispielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten autonomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist jedoch wirtschaftlich sinnvoller, dies gebündelt an Internet-Knoten vorzunehmen. Da in der Regel ein autonomes System, wie z. B. ein Internetprovider, nicht alle anderen auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt. Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog. Upstream- oder Transitprovider dem Kunden alle im Internet verfügbaren Erreichbarkeitsinformationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, sogenannte Tier-1-Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwickeln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen.

Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner sowie keinen Ort geben sollte, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der politischen Ebene des Internets nicht eingehalten. Die Internet Corporation for Assigned Names and Numbers (ICANN), ist die hierarchisch höchste Organisation zuständig für die Vergabe von IP-Adressen, die Koordination des Domain Name Systems (DNS) und der dafür nötigen Root-Nameserver-Infrastruktur, sowie die Festlegung anderer Parameter der Internetprotokollfamilie, welche weltweite Eindeutigkeit verlangen. Sie untersteht wenigstens indirekt dem Einfluss des US-Wirtschaftsministeriums. Um diesen Einfluss zumindest auf das DNS einzugrenzen, wurde das in erster Linie europäische Open Root Server Network aufgebaut, das jedoch mit dem Jahresende 2008 aus nachlassendem Interesse wieder abgeschaltet wurde.[15][16]

Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Ausfallsicherheit bei. Für die Kommunikation zwischen zwei Nutzern existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete, beziehungsweise eine Anfrage und die Antwort, je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kernbereich des Internets meistens keine schwerwiegenden Auswirkungen, ein Ausfall der einzigen Verbindung auf der letzten Meile lässt sich jedoch nicht ausgleichen. Im Bereich der Katastrophenforschung werden flächendeckende Missbräuche oder Ausfälle des Internets, sog. D-Gefahren, sehr ernst genommen.

Hauptartikel: Internet Protocol und Domain Name System

Das Internet basiert auf der Internetprotokollfamilie, welche die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll, in welchem die weltweit eindeutige Adressierung von angebundenen Rechnern festgelegt und benutzt wird, heißt Internetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie ein Telefonat, sondern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP-Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, welche jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.

Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs beschrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Paketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unabhängig von den Netzwerktechniken der Protokollschichten unterhalb von IP geschehen kann, so wie ein 40-Fuß-ISO-Container im Güterverkehr nacheinander per Schiff, Bahn oder Lastwagen transportiert werden kann, um an sein Ziel zu gelangen.

Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internetprotokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der heute üblichen Version IPv4 um 4 Byte (32 Bit), die als 4 Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Version IPv6 sind dies 16 Byte (128 Bit), die als 8 durch Doppelpunkt getrennte Blöcke aus je 4 hexadezimalen Ziffern angegeben werden, z. B. 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Man kann sich diese Adressen wie Telefonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.

Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele administrative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel „www.ifq.de.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht – vom Nutzer unbemerkt – immer dann, wenn er etwa im Webbrowser auf einen neuen Hyperlink klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP-Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, welche in den Namen durch die Punkte erkennbar wird, bilden die Root-Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht. Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.

Im Kernbereich des Internets müssen die IP-Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, welche über den kürzesten Weg zur Ziel-IP-Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingprotokolle automatisch erstellt und aktuell gehalten werden, so wird automatisch auf ausgefallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP-Adressen mit Hilfe von Netzmasken, bei IPv6 spricht man von Präfixlängen, zu Zielnetzen zusammengefasst und diesen wird jeweils ein Ausgang des Routers, zum Beispiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet. Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinformationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines autonomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default-Route, oft auch Standard- oder Default-Gateway genannt, welche für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich dem französischen Wegweiser „Toutes Directions“ (Alle Richtungen) im Straßenverkehr. Die Router im Kernbereich verwalten zurzeit Routingtabellen mit bis zu 360.000 Zielnetzen für IPv4 und 5500 für IPv6.[17]

In den Nutzdaten des Internetprotokolls werden abhängig vom verwendeten Dienst immer noch Protokolle höherer Schichten (wie TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP) und das Hypertext Transfer Protocol Secure (HTTPS) für verschlüsselte Seiten. E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), ebenfalls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt.

Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Organisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige, IP-Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zugegriffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öffentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und es ist freier wählbar, wie die Filterung des Datenverkehrs erfolgen soll.

Siehe auch: Green IT

Der Strombedarf in den Privathaushalten für die Nutzung des Internets ist in den letzten Jahren erheblich angestiegen und wird seriösen Schätzungen zufolge auch in den nächsten Jahren weiter steigen. Im Jahr 2003 wurden in Deutschland etwa 6,8 Milliarden Kilowattstunden elektrischer Strom für den Betrieb des Internets benötigt, für das Jahr 2010 gehen Schätzungen von einem Energiebedarf des Internets von 31,3 Milliarden Kilowattstunden nur in Deutschland aus. Berücksichtigt wurden sowohl die Endgeräte von Privathaushalt und Gewerbe sowie der Energieaufwand zur Bereitstellung der notwendigen Infrastruktur des Internets an Serverstandorten. Nicht in diese Rechnung eingegangen ist der Energiebedarf von Serverstandorten im Ausland.[18] Am Stromverbrauch eines Privathaushaltes ist die Nutzung des Internets zu einem großen Teil beteiligt.

Für das Jahr 2005 wird weltweit von einem Energieverbrauch von 123 Milliarden Kilowattstunden nur für den Betrieb der Infrastruktur für das Internet ausgegangen. Unberücksichtigt bleiben nach dieser Studie die Geräte der Endverbraucher.[19] Aufgrund der stetigen Vergrößerung des Netzes auch in den Entwicklungsländern ist mit einem weiteren Anstieg des Verbrauches zu rechnen, derzeit werden etwa 0,8 % der weltweiten Stromerzeugung für den Betrieb des Internets benötigt.[20]

Im Jahr 2012 beläuft sich das Datenaufkommen im festverkabelten, öffentlich zugänglichen, Internet auf mehr als 26,7 Exabyte (1 Exabyte = 1 Mrd. Gigabyte) pro Monat, was einem täglichen Datenaufkommen von annähernd einem Exabyte entspricht. Die Datenmenge von einem Exabyte ist vergleichbar mit der mehr als 2500-fachen Datenmenge aller Bücher, die jemals in jeder Sprache auf der Welt geschrieben wurden.[21] Das mobile Datenaufkommen (Datenaustausch über Mobilfunknetze) beläuft sich im Jahr 2012 auf über 1,1 Exabyte Daten monatlich.

Bis zum Jahr 2015 wird das Datenaufkommen im festverkabelten Internet voraussichtlich auf annähernd 60 Exabyte pro Monat wachsen. Im mobilen Internet wird ein Datenaufkommen von mehr als 6,2 Exabyte monatlich prognostiziert. Der größte Anteil der übertragenen Daten (über 50%) wird hierbei von Videodiensten (Video-on-Demand) ausgemacht. [22]

Verbreitung des Internets in Europa
Land Anteil der Internetnutzer
Island 91 %
Norwegen 87 %
Dänemark 83 %
Niederlande 82 %
Finnland / Luxemburg 81 %
Schweden 80 %
Schweiz 79 %
Österreich 74 %
England / Estland 69 %
Deutschland / Slowenien 66 %
Spanien 46 %
Italien 41 %
Russland 26 %
Ukraine 15 %

Dieser Abschnitt behandelt den Zugang zum Internet unter demographischen Aspekten; ein separater Artikel behandelt technische Prinzipien und Varianten des Internetzugangs.

Die Anzahl der Teilnehmer oder angeschlossenen Geräte im Internet ist nicht exakt bestimmbar, da Nutzer mit unterschiedlichen technischen Geräten (PC, Mobilgeräte) über verschiedene Anschlusstechniken kurzfristig Teil des Internets werden und dieses auch wieder verlassen. Laut IWS hatten im März 2007 etwa 16,9 Prozent der Weltbevölkerung Zugang zum Internet.[23] Laut EITO nutzen Anfang 2008 1,23 Milliarden Menschen das Internet.[24] In der EU nutzen Anfang 2008 mehr als die Hälfte (51 Prozent) der 500 Millionen EU-Bürger regelmäßig das Internet, wobei 40 Prozent das Internet gar nicht benutzen. In Europa gibt es starke Unterschiede bei den regelmäßigen Internetbenutzern: siehe Tabelle. 80 Prozent der Haushalte mit Internetanschluss verfügen über einen Breitbandzugang.[25] In den USA sind es bereits 75 Prozent, skandinavische Länder 70 Prozent, osteuropäische Staaten teilweise bei 14 Prozent. Besonders verbreitet ist das Internet in Estland, da Estland per Gesetz den kostenlosen Zugang ins Internet garantiert.

In China hatten nach dem Report über die Entwicklung des Internets Mitte 2007 162 Millionen Menschen einen Internetzugang, davon besaßen 122 Millionen einen Breitbandanschluss.[26] Bei jungen Europäern verdrängt das Internet das Fernsehen und andere traditionelle Medien.[27] US-Amerikaner nutzen als Nachrichtenquellen vorwiegend (48 Prozent) das Internet.[28]

2011-05-12 Cornelia Rogall-Grothe Bundesinnenministerium.ogg
Die IT-Beauftragte der Bundesregierung Cornelia Rogall-Grothe über Netzstrategien, IPv6, Soziale Netzwerke und Datenschutz (Mai 2011)

Etwa 60 Prozent aller Deutschen nutzen regelmäßig das Internet, Tendenz steigend um 2 bis 3 Prozent jährlich. In etwa 75 Prozent der deutschen Haushalte stehen PCs mit Internetanschluss, die jedoch mehr von jungen Menschen als von alten Menschen genutzt werden. In Deutschland verfügen ungefähr 68 Prozent der Erwachsenen über einen Internetanschluss.[29] Etwa 80 Prozent der deutschen Jugendlichen (10-13 Jahre) nutzen das Internet.[30] Neben alten Menschen nutzen in Deutschland auch sozial Schwache und Arbeitslose das Internet weniger[31][32] (siehe auch Digitale Kluft). In Deutschland verfügen ca. 60 Prozent der Internetnutzer über einen Breitbandzugang.[33] In der Schweiz verfügen im Jahr 2006 67 Prozent der Bevölkerung über einen privaten Internetzugang.[34]

Deutsche besuchen statistisch gesehen regelmäßig acht Internet-Seiten. (Männer: durchschnittlich 9,4; Frauen: 6,4 Seiten / 14- bis 19-jährige: 5,8; 30 bis 39 Jahre alte: 9,1 Seiten). Die Jungen nutzen bevorzugt Unterhaltungsangebote.[35] Die deutschen Männer sind im Durchschnitt 1,3 Stunden am Tag online, bei den deutschen Frauen sind es durchschnittlich 0,8 Stunden.[36]

Dieser Abschnitt behandelt die parallele Nutzung von Internet und Fernsehen.

Inzwischen nutzen immer mehr Europäer Fernsehen und Internet gleichzeitig. Eine Studie von Anfang 2010, basierend auf der Forschung der EIAA Mediascope Studie, besagt, dass bereits 70 % der Fernsehzuschauer gleichzeitig surfen. 75 % der Briten und Dänen sowie 73 % der Deutschen und 71 % der Belgier nutzen mindestens einmal pro Woche beide Medien gleichzeitig. Die Umfrage hat außerdem ergeben, dass jeder Zweite nach Kontakt mit einer TV-Werbung im Internet danach surft.[37]

Das Internet hat eine eigene Art der Schriftlichkeit hervorgebracht. Ebenso haben soziale Netzwerke zur Entwicklung einer eigenen Netzkultur mit verschiedenen sprachlichen Ausprägungen beigetragen.

Das Internet eignet sich dafür, über zeitliche und räumliche Distanzen hinweg schriftlich zu kommunizieren. Es vereint dabei multimediale Aspekte und integriert diese in seine Schriftlichkeit (z. B. Emoticons – Symbole, die sich bewegen und bestimmte Gefühlszustände darstellen sollen). Außerdem unterliegt es einer beständigen Metamorphose und hat keinen Anspruch auf endgültigen Werkscharakter. Die Texte im Internet sind kodiert, somit immateriell und exteriorial. Die schriftlichen Produkte im Internet lassen sich schnell verändern und verlangen die Bereitschaft, sich beständig auf Neues einzustellen.

Im Internet wird Literatur zur Verfügung gestellt und Literatur geschrieben. So entstanden etwa literarische Gattungen wie Digitale Poesie, Weblogs oder kollaboratives Schreiben im Netz. Literarische Produktion im Internet folgt anderen Kriterien als herkömmliche Literatur und Textproduktion. Literatur im Internet ist von Aspekten der Technik, Ästhetik und Kommunikation geprägt. So haben beispielsweise Neal Stephenson und sein Team mit dem Schreiben eines Romans („The Mongoliad”) im Internet begonnen, bei dem eine Community von Autoren interaktiv mitschreibt. Neben dem eigentlichen Text gibt es eine eigene E-Publishing-Plattform („Subutai“) mit Videos, Bildern, einer Art www.ifq.de und einem Diskussionsforum zum Roman.

  • Anonymität im Internet
  • Internetrecht
  • Internet Archive
  • Internet-Backbone
  • Internetkriminalität
  • Internetworking
  • Internet2
  • Internet Society
  • Netzneutralität
  • Zensur im Internet
  • Holger Bleich: Bosse der Fasern. Die Infrastruktur des Internet. In: c't 7/2005, S. 88–93 (21. März 2005)
  • Manuel Castells: Die Internet-Galaxie - Internet, Wirtschaft und Gesellschaft. Wiesbaden 2005, ISBN 3-8100-3593-9.
  • Ch. Meinel, H. Sack: WWW - Kommunikation, Internetworking, Web-Technologien. Springer-Verlag, Berlin Heidelberg New York 2004.
  • Andreas Metzner-Szigeth: Internet & Gesellschaft: Ein Humanes Projekt?. In: Sic et Non – Zeitschrift für Philosophie und Kultur – im Netz, No. 8, 2007
  • Stefan Scholz: Internet-Politik in Deutschland. Vom Mythos der Unregulierbarkeit. Münster 2004, ISBN 3-8258-7698-5.
  • Andreas Schelske: Soziologie vernetzter Medien. Grundlagen computervermittelter Vergesellschaftung. Oldenbourg Verlag, München 2006, ISBN 3-486-27396-5 (Reihe: Interaktive Medien. Herausgeber: Michael Herczeg).
  • Philip Kiefer: Internet & Web 2.0 von A bis Z einfach erklärt. Data Becker, Düsseldorf 2008, ISBN 978-3-8158-2947-9.
  • Bridgette Wessels: Understanding the Internet : a socio-cultural perspective. Palgrave Macmillan, Basingstoke 2010, ISBN 978-0-230-51733-2.
  • Christine Böhler: Literatur im Netz. Triton, Wien, 2001. ISBN 3-85486-103-6.
  • Johannes Fehr (Hg.): Schreiben am Netz. Haymon, Innsbruck, 2003. ISBN 3-85218-422-3.
  • Jannis Androutsopoulos: Neue Medien – neue Schriftlichkeit? In: Mitteilungen des Deutschen Germanistenverbandes 1/07, 2007, S. 72–97 (PDF).
  • Christiane Heibach: Literatur im Internet: Theorie und Praxis einer kooperativen Ästhetik. Dissertation, Heidelberg 1999, ISBN 3-89825-126-8.
  1. Vinton Cerf, Yogen Dalal, Carl Sunshine: RFC 675: (Internet Transmission Control Program, December 1974)
  2. ISBN 3-00-005949-0, S. 71
  3. Siehe Leipziger Wortschatz zu den Häufigkeitsklassen von Internet (HK 8), Weltnetz (HK 20), Zwischennetz (HK21) und Internetz (HK 22); bei 'Weltnetz' ein Verhältnis von 4096:1 bzw. ein Anteil von 0,0244 %, die anderen Begriffe entsprechend geringer
  4. Weltnetz
  5. Zwischennetz
  6. Neonazis im “Weltnetz”: Wenige Aktivisten - mit viel Raum, NPD-Blog, 7. März 2007
  7. Den Extremisten auf der Spur, Die Welt, 23. August 2000
  8. Stimmt's - Eine bombige Legende, Die Zeit, Drösser
  9. A Brief History of the Internet bei e-OnTheInternet von Barry Leiner, David D. Clark, Robert E. Kahn, Jonathan Postel, u.a.
  10. Tim Berners-Lee: WorldWideWeb - Executive Summary, 6. August 1991
  11. M. Handley: Why the Internet only just works BT Technology Journal, Vol 24, No 3, July 2006.
  12. RFC 4984 Report from the IAB Workshop on Routing and Addressing, September 2007
  13. Neue EU-Initiative für globale Internet-Regeln. Die Welt (5. Februar 1998). Abgerufen am 8. März 2011.
  14. Glasfasern sind nur zu 3 % beleuchtet
  15. Alternative DNS-Root-Server vor der Abschaltung
  16. https://lists.dns-oarc.net/pipermail/dns-operations/2008-October/003339.html
  17. BGP Analysis Reports
  18. Benedikt Ziegenfuss: Internet Grund für hohen Stromverbrauch. WinFuture.de, vom 27. Januar 2003]
  19. Schadet Surfen dem Klima?, WDR.de, Jörg Schieb, 19. Februar 2007
  20. Stephen Shankland: U.S. servers slurp more power than Mississippi. c|net news.com, vom 14. Februar 2007]
  21. Cisco Visual Networking Index - What is a Zettabyte?
  22. Cisco Visual Networking Index
  23. World Internet Users and Population Stats
  24. bitkom.de: Fast jeder fünfte Mensch auf der Welt ist online: 2010 werden voraussichtlich 1,5 Milliarden Menschen online sein
  25. golem.de: EU: Mehr als die Hälfte der EU-Bürger nutzt das Internet
  26. heise.de: China hat 162 Millionen Internetnutzer, 19. Juli 2007. Originalbericht (chinesisch)
  27. heise.de: Bei den jungen Europäern verdrängt das Internet das Fernsehen und andere Medien
  28. heise.de: Internet ist für die Hälfte der Amerikaner primäre Nachrichtenquelle
  29. heise.de: Studie: 68 Prozent der erwachsenen Deutschen sind online
  30. golem.de: Klassisches wird von elektronischem Spielzeug verdrängt: „Während schon 80 Prozent der 10- bis 13-jährigen mindestens ab und zu im Netz unterwegs sind, ist es bei den 6- bis 9-jährigen jeder Dritte.“
  31. spiegel.de: 60 Prozent der Deutschen sind online
  32. golem.de: Studie: Mehr als 40 Millionen Deutsche sind im Netz
  33. heise.de: Zahl der deutschen Internetnutzer wuchs um 5 Prozent
  34. heise.de: „… im Jahr 2006 verfügen 67 Prozent der Schweizer Bevölkerung über einen privaten Internetzugang.“
  35. http://www.sevenonemedia.de/web/sevenone/relevant-set Relevant Set 2011
  36. Allensbacher Computer- und Technik-Analyse 2007: Durchschnittliche Internetnutzung am Tag, angeboten durch: statista.org
  37. wuv.de


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Loitz

aus www.ifq.de, der freien Enzyklopädie

Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Loitz (Begriffsklärung) aufgeführt.
Wappen Deutschlandkarte
53.96666666666713.156Koordinaten: 53° 58′ N, 13° 9′ O
Basisdaten
Bundesland: Mecklenburg-Vorpommern
Landkreis: Vorpommern-Greifswald
Amt: Peenetal/Loitz
Höhe: 6 m ü. NN
Fläche: 89,53 km²
Einwohner:

4.720 (31. Dez. 2010)[1]

Bevölkerungsdichte: 53 Einwohner je km²
Postleitzahl: 17121
Vorwahl: 039998
Kfz-Kennzeichen: VG
Gemeindeschlüssel: 13 0 75 082
Stadtgliederung: 13 Ortsteile
Adresse der
Stadtverwaltung:
Lange Straße 83
17121 Loitz
Webpräsenz: www.loitz.de
Bürgermeister: Michael Sack (CDU)
Lage der Stadt Loitz im Landkreis Vorpommern-Greifswald
Über dieses Bild

Loitz [løːts] ist eine Landstadt im Landkreis Vorpommern-Greifswald in Mecklenburg-Vorpommern (Deutschland). Sie ist Sitz des Amtes Peenetal/Loitz, dem zwei weitere Gemeinden angehören.

Inhaltsverzeichnis

Loitz im östlichen Teil Mecklenburg-Vorpommerns liegt an der Peene und deren ebener Niedermoorlandschaft. Östlich der Stadt mündet das Tal der Schwinge in das Urstromtal des Ibitzgrabens, der weiter südöstlich der Stadt dann in die Peene mündet. In der Nähe des Ortsteiles Drosedow befindet sich das Waldgebiet Drosedower Wald.

Umliegende Städte sind Demmin, Greifswald, Jarmen und Grimmen.

Nachbargemeinden von Loitz sind (im Uhrzeigersinn): Süderholz, Sassen-Trantow, Bentzin, Tutow, Kletzin, Stadt Demmin, Nossendorf und Glewitz.

Rathaus
  • Drosedow
  • Düvier
  • Gülzowshof
  • Nielitz
  • Rustow
  • Schwinge
  • Sophienhof
  • Vorbein
  • Voßbäk
  • Wüstenfelde
  • Zarnekla
  • Zeitlow


Vorbein gehört seit dem 1. Januar 1992 zu Loitz.[2] Am 14. Juni 2004 wurde Wüstenfelde eingemeindet[3], am 1. Januar 2012 Düvier.

Das Wappen wurde unter der Nr. 22 der Wappenrolle von Mecklenburg-Vorpommern registriert.

Blasonierung: „In Rot fünf pfahlweise gestellte silberne Sterne zwischen zwei aufgerichteten goldenen Keulen, die nach außen von je einem gestürzten schwarzen Adlerflügel beseitet sind.“

Das Wappen wurde 1994 neu gezeichnet.

  • Partnerstadt Hiddenhausen, Kreis Herford in Nordrhein-Westfalen
  • Partneramt Breitenburg, Kreis Steinburg in Schleswig-Holstein

Seit 1170 ist der Name der Landschaft als Losice benannt. Der Name veränderte sich in Lositz (1171 und 1193), Locisse (1194), Losiz (1197), Lozitz (1314) ständig. Burg und Siedlung hießen ab 1236 Lositz, 1248 Losiz, 1275 Loseze, 1294 Losiz und dann verkürzt 1331 Loytze und 1332 Loitze. Dem liegt der altpolabische Ortsname *Losica zugrunde, welcher mit dem Substantiv *los' "Elch" gebildet wurde.[4] Loitz kann also mit Ort des Elches wiedergegeben werden.

Eine erste Siedlung der slawischen Lutizen im heutigen Hafenbereich wurde für das 10. Jahrhundert archäologisch nachgewiesen. In der heutigen Altstadt konnten bisher keine slawischen Vorsiedlungen gefunden werden. Das spätere Land Loitz gehörte bis zum 12. Jahrhundert zum Machtbereich des Lutizenbundes. Im zweiten Viertel des 12. Jahrhunderts eroberte der Pommernherzog Wartislaw I. das Gebiet. Nach 1187 gehörte das Gebiet zum Fürstentum Rügen, kam aber bald zurück zu Pommern. 1236 überließ Bischof Brunward von Schwerin dem Fürsten Johann von Mecklenburg den halben Zehnten aus den Ländern Lusyz (Loitz) und Gützkow. Die erste sichere urkundliche Erwähnung der Stadt ist die Verleihung des lübischen Stadtrechts (civitas) durch den Ritter Detlef von Gadebusch im Jahr 1242. Er versuchte im Grenzgebiet zwischen Herzogtum Pommern, Fürstentum Rügen und Mecklenburg eine eigenständige Herrschaft zu etablieren. Im Vertrag zwischen dem Kloster Eldena und Detlefs Sohn Werner von Loitz gab Werner 1249 die dem Kloster entzogenen Dörfer Subzow, Pansow, Griebenow zurück. Doch schon mit seinen Söhnen starb die Familie um 1270 wieder aus und das Land Loitz fiel zunächst an das Fürstentum Rügen und schließlich an das Herzogtum Pommern. 1292 gewährte Rügenfürst Wizlaw II. den Demminern Zollfreiheit in Loitz.

1314 wurde erstmals das Loitzer Schloss urkundlich erwähnt. Das schon gut befestigte „slot“ oder „hus loitz“ widerstand Angriffen und spielte ebenso wie die Stadt eine Rolle im Rügischen Erbfolgekrieg, in dem letztlich Pommern gegen Mecklenburg siegreich blieb. Barnim III. zog während des Zweiten Rügischen Erbfolgekrieges mit einem Entsatzheer nach Loitz und schlug hier die Mecklenburger 1351 in der Schlacht am Schoppendamm. Seitdem gehörte die Stadt als Sitz einer Vogtei zum Herzogtum Pommern–Wolgast.

Von 1480 bis etwa 1486 war Bernd von Moltzan, genannt auch der Böse Bernd, Voigt des Landes Loitz. Das Schloss war in dieser Zeit Sitz herzoglicher Vögte bzw. Amtshauptleute, wobei es im 14. und 15. Jahrhundert zu häufigen Verpfändungen kam. Zahlreiche Marktprivilegien des 16. Jahrhunderts sprechen für eine gute wirtschaftliche Entwicklung als Nahhandels- und Handwerkszentrum für den umliegenden ländlichen Raum. Die Stadt hatte zu dieser Zeit schätzungsweise 500 Einwohner. Der zwischen ca. 1530 und 1540 amtierende Amtmann Henning Kaskow war zugleich Bürgermeister von Loitz und Grundbesitzer des Dorfes Bilow, heute Wüstenbilow, nördlich von Loitz bei Poggendorf.

Loitz Anfang 17. Jahrhundert auf der Lubinschen Karte
St. Marienkirche

Seit der Mitte des 16. Jahrhunderts wurde das Loitzer Schloss zu einer stattlichen Renaissanceanlage ausgebaut, wie die Stadtansichten des frühen 17. Jahrhunderts (Stralsunder Bilderhandschrift, Lubinsche Karte von Pommern, Merians Topografie von Pommern und Brandenburg) belegen. In der Zeit von 1593 bis 1631 lebte Sophia Hedwig, die Witwe des Herzogs Ernst Ludwig in Loitz, weil sie Schloss und Amt Loitz als Leibgedinge (Wittum) erhalten hatte.

1638 beschlagnahmte Schweden nach dem Tod des letzten pommerschen Herzogs sämtliche landesherrlichen Güter, so auch das Amt Loitz, und vergab sie an schwedische Militärs. Das Amt Loitz erhielt der schwedische General Axel Lillie, der zeitweise auch Gouverneur des vorpommerschen Teils von Pommern war. 1654 musste er das Amt wieder an die schwedische Krone zurückgeben, die es noch im selben Jahr an die abgedankte Königin Christina vergab. Erst nach deren Tod kam das Amt 1689 wieder unter unmittelbare landesherrliche Verwaltung. Von 1648 bis 1815 stand Loitz, wie große Teile Vorpommerns, unter schwedischer Verwaltung. Die verheerenden Kriege des 17. und 18. Jahrhunderts fügten der Stadt schwere Schäden zu. Zahlreiche Grundstücke lagen wüst, wie die Steuerkataster dieser Zeit belegen, und die Einwohnerzahl sank. Die verbliebenen Einwohner verarmten. In einem großen Stadtbrand von 1701 wurden auch die letzten Reste des Schlosses vernichtet. 1758 – im Siebenjährigen Krieg – beschossen Preußische Truppen die Stadt. Die Schweden kapitulierten und die Preußen zogen nach erhaltenen Geldforderungen wieder ab.

Erst in der zweiten Hälfte des 18. Jahrhunderts erholte sich Loitz wieder von diesen Katastrophen. 1762 hatte Loitz 1015 Einwohner. Von 1785 bis 1787 erfolgte der Bau des heutigen Rathauses. 1800 besuchte der schwedische König Gustav IV. Adolf die Stadt, die 1815 – nach dem Wiener Kongress – mit Vorpommern an Preußen fiel und dem Regierungsbezirk Stralsund angehörte.

Schon 1818 verlor die Stadt das Landratsamt des neugebildeten Kreises an das zentraler gelegene Grimmen, sodass der Kreis fortan Grimmer Kreis hieß. Die Stadt erweiterte sich ab dem 19. Jahrhundert nach Norden und Westen. 1833 errichtete Friedrich Lippert die Loitzer Glashütte als erste Industrieansiedlung. 1836 erhielt Loitz eine neue Stadtverfassung nach der preußischen Städteordnung. 1837 hatte die Schule acht Klassen. Schulleiter wurde an Stelle eines Geistlichen einen weltlicher Rektor. Die Revolutionen von 1848 bewirkten auch in Loitz Veränderungen.

Seit der Mitte des 19. Jahrhunderts begannen sich Industriebetriebe in Loitz anzusiedeln (u.a. 1833 Glashütte, 1848 Mühlenbau, 1862 Kalkbrennerei, 1888 Stärkefabrik, 1925 Dübelwerk). 1875 hatte Loitz 3941 Einwohner. 1887 erfolgte die Einweihung der neuen Schule mit 16 bis 17 Klassen. 1887 wurde die Freiwillige Feuerwehr gebildet. 1898 wurde die Stadtsparkasse gegründet. 1906 wurde das Gaswerk gebaut, das bis 1925 im Betrieb war.

1906 erhielt die Stadt mit einer Bahnstrecke vom Bahnhof Toitz-Rustow zum Loitzer Hafen Anschluss an die Bahnstrecke Berlin–Neustrelitz–Stralsund. Der Personenverkehr wurde 1967, der Güterverkehr 1997 wieder eingestellt. Beim Bau des Bahndamms und des Bahnhofsgebäudes am Hafen wurden die Reste des Schlossberges abgetragen. Unter dem Bürgermeister Wilhelm Dahlhoff (1923–1933) profitierte die Stadt von der Aufsiedlung großer Güter in der Umgebung, wie dem Gut Rustow. 1926 wurde ein großer Sportplatz angelegt.

In der Zeit des Nationalsozialismus, kurz nach Beginn des Krieges, wurde 1940 ein Barackenlager für Kriegsgefangene und Zwangsarbeiter errichtet. Seither trug er den Namen Barackenplatz, seit 1990 Kiewitt. Eine unbekannte große Anzahl Frauen und Männer aus mehreren von Deutschland besetzten Ländern mussten im Ort und in der Umgebung Zwangsarbeit verrichten. Etwa 100 an Krankheiten, Hunger, Misshandlungen und Arbeitsunfällen verstorbene Männer, Frauen und Kinder wurden zwischen 1942 und 1945 auf dem Sankt-Marien-Friedhof beigesetzt. Am Ende des Zweiten Weltkriegs rief noch am 29. April 1945 Bürgermeister Groch (NSDAP) die Bevölkerung zum Durchhalten auf. Es wurden Panzersperren an den Ortseingängen errichtet. Der Bürgermeister floh aus Loitz. Die Stadt blieb jedoch durch den mutigen Einsatz des Loitzer Superintendenten Carl Winter von massiven Zerstörungen verschont.

Zwischen 1945 und 1990 verfiel vor allem die Bausubstanz der Innenstadt. 1948 erfolgte die Wiedereröffnung des Dübelwerkes. Mit der Verwaltungsreform von 1952 kamen Loitz und Umgebung vom Kreis Grimmen zum Kreis Demmin und damit zum neu gebildeten Bezirk Neubrandenburg. Damit wurden alte gewachsene Verbindungen nach Norden zu Greifswald und Stralsund gekappt. Obgleich die kommunale Selbständigkeit in der DDR nahezu vollständig unterdrückt wurde, behielt die Stadt Loitz insbesondere durch das Engagement des Bürgermeisters Richard Wenzel ihr eigenes Profil. 1968/69 wurde die Parkbühne im Gülzowpark gebaut. Der Bau einer neuen Schule in der Sandfeldstraße fand 1974 statt. Sie wurde 1980 um ein zweites Gebäude und um eine Turnhalle erweitert. 1975 wurde der Gemeindeverband Loitz gegründet, bestehend aus den Gemeinden Sassen, Trantow, Vorbein, Düvier, Görmin und der Stadt Loitz.

Am 25. Oktober 1989 fanden auch in Loitz Friedensgebete statt. Neue politische Kräfte bestimmten nunmehr die Richtung. Nach 1991 begann eine systematische Verbesserung der Infrastruktur und eine Sanierung der historischen Innenstadt und des Rathauses im Rahmen der Städtebauförderung. 1998 schloss die Stärkefabrik. 2002 erfolgte die Einweihung der neuen Mehrzweckhalle. 2006 wurden die Loitzer Hafen- und Sportbootmarina, ein Speicher und das Bahnhofsgebäude weitgehend fertiggestellt und 2008 eingeweiht. 2010 erfolgte die Freigabe der neuen Ortsumgehung (B 194). Für Mitte 2012 ist die Fertigstellung der neuen Peenebrücke als Ersatz für die bisherige Drehbrücke geplant.

Ehemalige Drehbrücke über die Peene (bis Ende 2010)
Steintor
Marina mit ehemaligem Kleinbahnhof
  • Die historische Altstadt mit ihrem Straßennetz aus der 2. Hälfte des 13. Jahrhunderts.
  • Die Stadtkirche St. Marien ist im Kern im 12. und 13. Jahrhundert entstanden, dann aber im 17. und 19. Jahrhundert tiefgreifend verändert worden.
  • Das Rathaus wurde um 1785 bis 1787 gebaut (Mittelrisalit, Mansarddach) und 1995 grundlegend saniert.
  • Die Reste der Stadtbefestigung mit dem Steintor aus dem 14. Jahrhundert bestehend aus Backsteinen mit Feldsteinsockel; das Tor wurde 1701 durch Brand zerstört.
  • Die gründerzeitliche Adolf-Diesterweg-Schule (gebaut um 1887).
  • Die Lutherkirche (Kapelle des ehemaligen Georgenhospitals, 1619 neu errichtet, seit 1953 unter dem heutigen Namen).
  • Der Kampfriedhof und der Marienfriedhof.
  • Die Wohnhäuser aus dem 18. Jahrhundert.
  • Die Speicher: Der kleine Speicher Mühlenstraße 108 und der große Speicher am Hafen müssen noch restauriert werden.
  • Die Wohnhäuser und Industriebauten aus dem 19. Jahrhundert und der Gründerzeit.
  • Das Heilgeisthospital.
  • Die Drehbrücke: Die Peenebrücke in Loitz wurde 1886/87 gebaut und war bis Ende 2010 die älteste von Hand betriebene Drehbrücke Europas. Die Durchfahrtshöhe betrug 1,7 Meter, die Durchfahrtsbreite 11,50 Meter. Vom Bautyp war sie eine zweischenklige Drehbrücke. Zum Bewegen der Brücke wurde am Mittelpfeiler (am Mittelpunkt der Fahrbahn) eine T-förmige Stange eingesetzt, die dann von zwei Arbeitern gedreht wurde. Die Brücke hatte eine ca. 2,2 Meter breite Fahrbahn ohne Fußgängerwege. Die Brücke wurde mehrmals täglich für den Schiffsverkehr geöffnet, letztmals im Herbst 2010. Sie ließ sich im geschlossenen Zustand problemlos mit einem Kanu oder Faltboot unterqueren. Diese Brücke wurde im Januar 2011 demontiert und soll bis Mitte 2012 durch eine zweispurige Klappbrücke inkl. einseitig geführtem Radweg und ohne Tonnagebegrenzung ersetzt werden.
  • Das Sägewerk Loitz.
  • Die Marina, 2006 eröffnet, mit dem ehemaligen Bahnhofsgebäude als gastronomische Einrichtung.
  • In Rustow: Das Herrenhaus und die Kapelle.
  • In Vorbein: Die Kapelle und ein gut erhaltenes Bauerndorfensemble des 19. und frühen 20. Jahrhunderts.
  • In Rustow und Schwinge: Beispiele für Gutsaufsiedlungen aus der ersten Hälfte des 20. Jahrhunderts.
  • Die Peenelandschaft.

Es gibt zahlreiche Vereine, insbesondere Sportvereine (Handball, Volleyball, Tanzgruppen, Stockcar)

  • HSV Peenetal Loitz e. V. (Handball, Herren in der Saison 2010/2011 in der neu geschaffenen 3. Liga, Staffel Nord; Tischtennis; Volleyball)
  • Schützenverein Loitz 1990 e. V.
  • Gewerbepark Loitz - Walkmühle mit 250.000 m² Fläche
  • Stromversorgung: e.dis Energie Nord AG
  • Wasser, Abwasser: Stadtwerke Loitz GmbH
  • Erdgas: OMG Neubrandenburg, Außenstelle Dargun

Durch den Loitzer Innenstadtbereich führte bis zum Herbst 2010 die Bundesstraße 194. Am 12. Oktober 2010 wurde die neue Ortsumgehung für den Verkehr freigegeben, wodurch sich die Streckenführung der Bundesstraße änderte. Die sog. Ostseeautobahn A 20 verläuft nördlich und östlich der Stadt (Anschlussstelle Grimmen-Ost rund 15 km entfernt, zu erreichen über die B 194). Durch die Stadt führen die Buslinien Demmin-Greifswald und Demmin-Grimmen. Der nächste noch betriebene Bahnhof ist in Demmin. An der Peene befindet sich seit 2006 ein neu errichteter Freizeithafen, der den alten, komplett restaurierten Bahnhof der Stadt in das Nutzungskonzept der Marina mit einbezieht. Bis Mitte 2012 soll die alte Peenebrücke durch eine Neukonstruktion ersetzt werden. Bis dahin ist eine Überquerung der Peene für Autofahrer in Loitz nicht möglich. Auch der Schiffsverkehr auf der Peene unterliegt während der Bauzeit der neuen Brücke Einschränkungen, die durch das Wasser- und Schifffahrtsamt Stralsund bekanntgegeben werden.

  • Friedrich Wilhelm Otto Kuntze (1841–1931), deutscher Geistlicher, Lehrer und Übersetzer
  • Otto Wangemann (1848–1914), deutscher Organist, Musikpädagoge und Musikwissenschaftler
  • Friedrich Bartels (1871–1931), preußischer Landtagsabgeordneter (SPD)
  • Karl Fredenhagen (1877–1949), deutscher Physikochemiker
  • Erich Gülzow (1888–1954), vorpommerscher Lokalhistoriker, Herausgeber und Ernst Moritz Arndt-Forscher
  • August Levin (1895–?), KPD-Politiker, Spanienkämpfer
  • Walter Müller (CDU) (1907–?), CDU-Politiker, Landtagsabgeordneter
  • Hendrik Born (* 1944), letzter Chef der Volksmarine der NVA
  • Renate Holznagel (* 1949), CDU-Politikerin und Landtagsabgeordnete in Mecklenburg-Vorpommern
  • Dietmar Hinz (* 1953), deutscher Ringer, Bronzemedaille bei der Europameisterschaft 1978
  • Armin Weier, (* 1956 in Vorbein), deutscher Ringer
  • Heinz Janshen, (* 29.05.1934), ab 1984 Generalmajor der NVA, 1987-1990 Kommandeur d. Offiziershochschule d. Grenztruppen in Suhl
  • Detlef von Gadebusch (vor 1219; † nach 1244), Ritter in mecklenburgischen Diensten, belehnt mit dem Gebiet Loitz. Die Adlerflügel im Loitzer Stadtwappen gehen auf das Wappen Detlefs zurück.
  • Jacob Knade (1490-1564), evangelischer Theologe
  • Christoph von Neuenkirchen (1567–1641), Rat der Herzöge von Pommern, der in Loitz um 1592/94 lebte.
  • Christian Joachim Friedrich Barkow (1755–1836), Theologe, Pfarrer und Präpositus in Loitz.
  • Friedrich von Hagenow (1797–1865), Naturwissenschaftler und Prähistoriker, um 1823/26 Privatgelehrter in Loitz.
  • Richard Sigmund Schultze (1831–1916), Kommunalpolitiker, Bürgermeister von Greifswald, um 1860 als Jurist in Loitz.
  • Henning Rischer (* 1945), deutscher Geschichtsforscher, Autor und Herausgeber von Schriften zur Geschichte Pommerns.
  • Albert Georg von Schwarz: Diplomatische Geschichte der Pommersch-Rügischen Städte Schwedischer Hoheit. Kapitel: Vom Ursprung der Stadt Loitz. Hieronymus Johann Struck, Greifswald 1755, S. 376-388. (Google bücher).
  • Gustav Kratz: Die Städte der Provinz Pommern. Abriss ihrer Geschichte, zumeist nach Urkunden. Berlin 1865, S. 255-260 (Volltext).
  • ISBN 978-3-935749-63-3
  • Eginhard Wegner: Loitz - Ein Beitrag zur Geographie der Stadt., In: Greifswald-Stralsunder Jahrbuch, Band 7, VEB Hinstroff Verlag, Rostock 1967, Seiten 79–104.
  1. Mecklenburg-Vorpommern Statistisches Amt – Bevölkerungsentwicklung der Kreise und Gemeinden 2010 (PDF; 522 kB) (Hilfe dazu)
  2. ISBN 3-8246-0321-7, Herausgeber: Statistisches Bundesamt
  3. StBA: Änderungen bei den Gemeinden Deutschlands, siehe 2004
  4. ISBN 3-935319-23-1


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.