Software für Internet in Wittenburg, Software für Internet in Wittenburg, Mecklenburg-Vorpommern

Software für Internet in Wittenburg, Software für Internet Region

Auch wenn Sie nicht aus Wittenburg kommen, wir sind Ihr Partner rund um das Thema Software Development, Softwareentwicklung, Software Engineering, Software Entwicklung, Software Entwickler, IT Beratung und IT Consulting, Software für Internet, Organisation Software, Qualitätsmanagement QM Quality Management ISO EN, Konstruktion CAD, Borland DBE, MDE Mobile Datenerfassung Software

 

 

Softwaretechnik

aus www.ifq.de, der freien Enzyklopädie

Die Softwaretechnik ist eine deutschsprachige Übersetzung des engl. Begriffs software engineering und beschäftigt sich mit der Herstellung bzw. Entwicklung von Software, der Organisation und Modellierung der zugehörigen Datenstrukturen und dem Betrieb von Softwaresystemen. Eine Definition von Helmut Balzert beschreibt das Gebiet als

Zielorientierte Bereitstellung und systematische Verwendung von Prinzipien, Methoden und Werkzeugen für die arbeitsteilige, ingenieurmäßige Entwicklung und Anwendung von umfangreichen Softwaresystemen.“ (Lit.: Balzert, S.36)

Softwaretechnik umfasst eine Vielzahl von Teilgebieten, die in ihrer Gesamtheit die Softwareentwicklung begleiten. Wichtig ist auch die experimentelle Untersuchung von Softwaretechnik, um ihren praktischen Nutzen zu messen und zu verbessern. Zur Beschreibung des „Standes der Technik“ des Fachgebiets gibt es verschiedene Ansätze, unter anderem den „Guide to the Software Engineering Body of Knowledge“ (SWEBOK) der IEEE Computer Society.

In erweitertem Sinn umfasst die Softwaretechnik – neben dem Entwickeln – auch das Betreiben der Software unter Nutzung der Informationstechnik.

Inhaltsverzeichnis

Aufgrund des hohen Aufwandes zur Erstellung und Wartung komplexer Software erfolgt die Entwicklung durch Softwareentwickler anhand eines strukturierten (Projekt-)Planes. Dieser Plan (das Vorgehensmodell) unterteilt den Entwicklungsprozess in überschaubare, zeitlich und inhaltlich begrenzte Phasen. Die Software wird somit Schritt für Schritt fertiggestellt. Die Phasen sind während des ganzen Entwicklungsprozesses eng miteinander verzahnt. In der Praxis werden auch Verfahren eingesetzt, welche die Mehrstufigkeit von Systemanalyse, Systemdesign/Konzept und anschließender Implementierung und Testen aufgeben, siehe z. B. unter Prototyping, Agile Softwareentwicklung.

Die Softwaretechnik beinhaltet den gesamten Prozess von der Identifizierung des Bedarfs bis hin zur Inbetriebnahme einer konkreten IT-Lösung, zum Teil auch darüber hinaus. Hauptgegenstand ist die Bereitstellung und Einführung einer Anwendungssoftware, teilweise zzgl. der benötigten Hardware und Netzwerke.

Die zu implementierende Software kann entweder eine Individualsoftware oder eine Kombination und Konfiguration von Standardsoftware sein.

Projekte werden oftmals von oder mit externen Dienstleistungsunternehmen, häufig aber auch als Eigenentwicklung geleistet. Dementsprechend vielfältig, auch abhängig von der Projektart, sind auch die Vorgehensweisen bei der Projektentwicklung: Von einer sehr strukturierten Herangehensweise, siehe Wasserfallmodell, über verschiedene Mischformen bis hin zu sehr flexiblen, offenen Methoden wie der Agilen Softwareentwicklung. Entsprechend wird auch zwischen Top-Down- und Bottom-Up-Ansätzen unterschieden.

Im Folgenden werden einige wichtige Aspekte und typische Stufen/Phasen der Projektentwicklung beschrieben, die in der Praxis mehr oder weniger ausgeprägt zum Tragen kommen.

Die Phasen und ihre Aufgabenstellungen sind in der folgenden Tabelle aufgeführt:

Kernprozesse

1. Planung

  • Anforderungserhebung
  • Lastenheft (Anforderungsdefinition)
  • Pflichtenheft (Mit technischen Ansätzen verfeinertes Lastenheft)
  • Aufwandsschätzung (z. B. mittels Function-Point-Verfahren oder COCOMO)
  • Vorgehensmodell

2. Analyse

  • Auswertung
  • Mock-up
  • Prozessanalyse / Prozessmodell
  • Systemanalyse
  • Strukturierte Analyse (SA)
  • Objektorientierte Analyse (OOA)

3. Entwurf

  • Softwarearchitektur
  • Strukturiertes Design (SD)
  • Objektorientiertes Design (OOD)
  • Unified Modeling Language (UML)
  • Fundamental Modeling Concepts (FMC)

4. Programmierung

  • Normierte Programmierung
  • Strukturierte Programmierung
  • Objektorientierte Programmierung (OOP)
  • Funktionale Programmierung

5. Validierung und Verifikation

  • Modultests (Low-Level-Test)
  • Integrationstests (Low-Level-Test)
  • Systemtests (High-Level-Test)
  • Akzeptanztests (High-Level-Test)

Unterstützungsprozesse

6. Anforderungsmanagement

7. Projektmanagement

  • Risikomanagement
  • Projektplanung
  • Projektverfolgung und -steuerung
  • Management von Lieferantenvereinbarungen

8. Qualitätsmanagement

  • Capability Maturity Model
  • Spice (Norm) (Software Process Improvement and Capability Determination)
  • Incident Management
  • Problem Management
  • Softwaremetrik (Messung von Softwareeigenschaften)
  • statische Analyse (Berechnung von Schwachstellen)
  • Softwareergonomie

9. Konfigurationsmanagement

  • Versionsverwaltung
  • Änderungsmanagement / Veränderungsmanagement
  • Release Management
  • Application Management (ITIL)

10. Softwareeinführung

11. Dokumentation

  • Technische Dokumentation
  • Softwaredokumentation
  • Software-Dokumentationswerkzeug
  • Betriebsdokumentation (Betreiber/Service)
  • Bedienungsanleitung (Anwender)
  • Geschäftsprozesse (Konzeption der Weiterentwicklung)
  • Verfahrensdokumentation (Beschreibung rechtlich relevanter Softwareprozesse)

Die oben genannten Teilschritte der Softwareentwicklung werden nicht zwangsläufig bei jedem Projekt komplett durchlaufen. Vielmehr werden einzelne Prozesse spezifisch für die jeweilige Anforderung gewählt. Dies ist aus Sicht der Kosten- und Verwaltungsreduzierung notwendig.

Der gesamte Prozess einer Projektentwicklung unterliegt meist einem mehr oder weniger stark ausgeprägten Projektmanagement. Im Falle der Realisierung durch einen IT-Dienstleister wird meist sowohl auf Auftraggeber- als auch auf Auftragnehmer-Seite ein jeweils eigenständiges Projektmanagement betrieben. Um Konflikte zwischen den beiden Projektleitern aufzulösen, wird dem übergeordnet oftmals noch ein aus dem Management von Auftraggeber und Auftragnehmer zusammengesetztes Kontrollgremium (Project Board) eingesetzt.

Typischerweise wird für größere Projekte auch ein größerer Projektmanagement-Aufwand betrieben, während mittlere oder kleinere Projekte häufig „nebenbei“ abgewickelt werden.

In allen Phasen der Projektentwicklung ist das IT-Consulting (oder auf Deutsch „Konzeptionen und Beratung“) durch externe Beraterfirmen üblich.

Das Qualitätsmanagement innerhalb des Projekts wird als Teilbereich des Projektmanagements verstanden.[1] Es umfasst die Teilgebiete:

  • Qualitätsplanung, das heißt Identifizierung der für das Projekt relevanten Qualitätskriterien und der Methoden, mit denen sie erfüllt werden können.
  • Qualitätssicherung, das heißt regelmäßige und regelgerechte Bewertung der Projektleistung, damit das Projekt die Qualitätsstandards erfüllt.
  • Qualitätslenkung, das heißt Überwachen der Projektergebnisse, um festzustellen, ob die Qualitätsstandards erfüllt werden, und um die Ursachen unzureichender Leistungen zu beseitigen.

Das Qualitätsmanagement im Projekt muss sowohl die Leistung des Projekts als auch die Qualität des Projektprodukts ansprechen. Modernes Qualitätsmanagement und modernes Produktmanagement ergänzen sich. Beide Disziplinen erkennen die Bedeutung von

  • Kundenzufriedenheit
  • Prävention geht vor Überprüfung
  • Managementverantwortung

an. Qualitätsverbesserungsprogramme, die von der Trägerorganisation durchgeführt werden, beispielsweise nach TQM oder nach ISO 9000, können integriert werden, um die Qualität des Projekts und die des Produkts zu verbessern.[1]

Magisches Dreieck

Wie generell im Projektmanagement ist dem permanenten Zielkonflikt zwischen Qualität, Kosten und Zeit Rechnung zu tragen.[2]. Speziell in Softwareprojekten steht die Projektleitung häufig unter hohem Termindruck und ist einem besonders hohen Risiko ausgesetzt, die Qualität zu vernachlässigen.[3]

Aufgrund der Komplexität von Informationssystemen sind „absolute“ Sicherheit bzw. Qualität nicht ökonomisch realisierbar. Daher werden zur Kategorisierung und Priorisierung häufig Methoden des Risikomanagements eingesetzt, um für das jeweilige Projekt ein adäquates Maß an Systemsicherheit und -qualität zu gewährleisten.

Aspekte des Risikomanagements sollten über den gesamten System-Lebenszyklus, also beginnend mit dem Konzept, über die Entwicklung oder Programmierung, Implementierung und Konfiguration und während des Betriebes bis hin zur Stilllegung des Systems berücksichtigt werden.

Im Zusammenhang mit der Projektentwicklung ist hier die Systemanalyse zur Projektvorbereitung gemeint. Gegenstand ist die inhaltliche Erfassung der Anforderungen durch Befragung künftiger Anwender sowie die systematische Untersuchung weiterer sachlicher und technischer Anforderungen und Randbedingungen (Schnittstellen zu Drittsystemen, gesetzliche Anforderungen u.dgl.). Ergebnis ist meist ein Fachkonzept, oftmals auch gleich ein Lastenheft.

Ein Pflichtenheft enthält sämtliche Funktionen und Anforderungen an ein Programm. Darin wird festgelegt, welche Funktionen verlangt sind und was diese genau tun. Anhand dieser Übersicht werden die grundlegenden technischen Entwurfsentscheidungen getroffen, und daraus wird die Systemarchitektur abgeleitet. Im Falle einer Beauftragung eines Dienstleistungsunternehmens ist das Pflichtenheft die vertragliche Grundlage für die vereinbarten Leistungen. Deshalb ist die Vollständigkeit und Richtigkeit der darin getroffenen Festlegungen und Anforderungen von besonderer Bedeutung für den Auftraggeber.

Ein Systemanalytiker bzw. -designer, bei kleineren Projekten auch der Programmierer, legt anhand des Pflichtenhefts die Programmarchitektur fest. Soweit Standardsoftwareprodukte zum Einsatz kommen, erfolgt in dieser Phase auch eine Spezifikation der geplanten Produkteinbindung bzw. -anpassung. Für neu zu entwickelnde Software erfolgt der Entwurf des Datenmodells und der einzelnen Funktionen und Algorithmen bzw. der Objekt- und Klassenstruktur. Falls bereits vorhandene Software angepasst (adaptiert) werden muss, so wird in dieser Phase festgelegt, welche Veränderungen und Erweiterungen erforderlich sind. Das Ergebnis des Systemdesigns wird auch DV-Konzept genannt.

In der Implementierungsphase wird die zuvor konzipierte Anwendungslösung technisch realisiert, indem Softwareprodukte konfiguriert, vorhandene Software angepasst oder Programme bzw. Programmteile vollständig neu erstellt werden.

Eine Neuerstellung von Software erfolgt meist durch Programmierung, d. h. die einzelnen Funktionen, Objekte, Klassen u.s.w. werden in einer Programmiersprache mit Hilfe einer Integrierten Entwicklungsumgebung codiert.

Die Software wird im Softwaretest in zweierlei Hinsicht getestet, zum einen

  • technisch, d. h. auf eine korrekte Umsetzung des DV-Konzepts und auf Programmfehler, und zum anderen
  • inhaltlich, d. h. auf Vollständigkeit bezüglich des Pflichtenhefts und Eignung für den vorgesehenen Zweck.

Während der Systemtest eine alleinige Angelegenheit des Auftragnehmers ist, erfolgt der Verfahrenstest meist in Zusammenarbeit mit den Endanwendern des Auftraggebers.

Es gilt in der Softwareentwicklung als normal, dass Programme fehlerhaft sind. Gelegentlich müssen sogar ganze Teile vollständig neu umgesetzt, also neu programmiert werden. Da in komplexeren Applikationen nicht mit Sicherheit ausgeschlossen werden kann, dass geänderte Programmteile nicht etwa andere Programmfunktionen beeinflussen können (Nebeneffekte), sollte nach der Fehlerbeseitigung ein erneuter vollständiger Test des Gesamtsystems erfolgen. Bis zur endgültigen Freigabe der Software sind meist mehrere Test- und Fehlerbeseitigungszyklen (iteratives Vorgehen) erforderlich.

Die fertiggestellte Software nebst eventuell erforderlicher Standardsoftwareprodukte, Hardware u. ä. wird sodann im Zuge der Installation auf den Computersystemen des Auftraggebers oder des Betreibers (eines Application Service Providers) aufgespielt und betriebsbereit gemacht. Hierbei wird oftmals zwischen parallelen „Produktiv“-, „Test“-, „Schulungs“- und „Entwicklungs“-Installationen unterschieden.

Je nach technischer Plattform erfolgt die Installation auf Zentralrechnern (Server) oder auf den Arbeitsplatzrechnern oder beides. Bei Datenbankanwendungen erfolgt ggf. noch ein Tuning der Datenbank. In einigen Fällen erfolgt noch eine Migration aus älteren Anwendungslösungen.

Bei größeren Projekten erfolgt oftmals zunächst nur eine Installation auf einem Testsystem bzw. bei wenigen Pilot-Anwendern. Die nachfolgende Ausweitung (Installation und Inbetriebnahme) auf weitere Standorte nennt man Rollout.

Wesentlicher Teil des Projekts ist die Einführungsunterstützung, insbesondere in Form von Schulung bzw. Einweisung der Endanwender, Power User und Administratoren.

Nach der Inbetriebnahme einer Softwarelösung ist eine kontinuierliche Weiterbetreuung erforderlich und üblich. Diese umfasst sowohl eine Unterstützung der Anwender z. B. per Hotline im laufenden Betrieb als auch Erweiterungen der Software bei Bedarf. Bei externer Softwareerstellung / Projektabwicklung wird beides in einem Support-Vertrag geregelt.

Dabei wird zwischen einem First-level-Support und einem Second-level-Support unterschieden. Der First-level Support (auch Helpdesk) ist erste Anlaufstelle für alle eingehenden Unterstützungsfragen und nimmt alle Problemmeldungen entgegen. Er leitet aber nur schwerwiegende Probleme an den Second-level-Support, bei Standardsoftware z. B. beim Produkthersteller, weiter.

Die laufende Anpassung der Software an sich ändernde Anforderungen oder Umgebungsbedingungen, z. B. an neue Versionen verwendeter Standardsoftware, wird als „Softwarepflege“ bezeichnet. Größere Veränderungen werden über eigene Wartungsprojekte bearbeitet, kleinere Anpassungen häufig als Wartungsaufgaben mit einfacheren Prozessregeln. Das Management des nachträglichen Einbringens von Änderungen in ein laufendes System nennt man Veränderungsmanagement.

  • ISBN 3-8274-0480-0.
  • ISBN 3-89864-268-2.
  • ISBN 3-446-22429-7.
  • ISBN 0-321-21026-3.
  • Thomas Grechenig, Mario Bernhart, Roland Breiteneder, Karin Kappel: Softwaretechnik – Mit Fallbeispielen aus realen Projekten Pearson Studium, München 2009, ISBN 3-86894-007-3.
  1. ISBN 978-1-930699-21-2, S. 95–103
  2. Kessler, Heinrich; Winkelhofer, Georg: Projektmanagement. 4. Auflage. Heidelberg 2004, Springer. S. 55–56
  3. Wendt, Dierk (Sprecher der Arbeitsgruppe): Klassische Fehler in der Software-Entwicklung, TU Ilmenau, Version vom 6. Oktober 2005, abgerufen am 9. Februar 2011


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Software

aus www.ifq.de, der freien Enzyklopädie

Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Software (Begriffsklärung) aufgeführt.

Software ['s?f(t)w??] (dt. = weiche Ware [von] soft = leicht veränderbare Komponenten [...], Komplement zu 'Hardware' für die physischen Komponenten)[1] ist ein Sammelbegriff für ausführbare Programme und die zugehörigen Daten.[2] Sie dient dazu, Aufgaben zu erledigen, indem sie von einem Prozessor ausgewertet wird und so softwaregesteuerte Geräte in ihrer Arbeit beeinflusst.[3]

In diesem Sinne wurde der Begriff erstmals 1958 von John W. Tukey benutzt.[4] Durch das softwaregesteuerte Arbeitsprinzip kann eine starre Hardware individuell arbeiten.[3] Es wird heutzutage nicht nur in klassischen Computern angewendet, sondern auch in vielen anderen Systemen, wie beispielsweise in Waschmaschinen, Handys, Navigationssystemen und modernen Fernsehgeräten.

Inhaltsverzeichnis

Als Terminus wird 'Software' in zwei typischen Entgegensetzungen gebraucht:

Eine uneingeschränkte Definition beschreibt Software als 'Gegenstück zu Hardware', wobei Software hier jede Art von digitalen Daten umfasst, die auf einer Hardware gespeichert sein können,[5] von der Firmware (z. B. dem BIOS), dem Betriebssystem, den Anwendungsprogrammen bis hin zu allen (möglichen) Dateien eines softwaregesteuerten Gerätes.

Die physischen Bestandteile eines Computersystems (die Geräte selbst, zuzüglich Kabel, etc.) werden unter dem Begriff 'Hardware' zusammengefasst. Ein Datenträger ist Teil der Hardware. Auf ihm wird Software zu Informationszwecken gespeichert. Sie ist dafür gedacht, von einem Prozessor interpretiert zu werden: Sie beschreibt in Form von Anweisungen, was der Prozessor tun soll (z. B. "x + y") und konkretisiert darüber hinaus den genauen Verlauf der Abarbeitung anhand weiterer Daten (z. B. "5 + 3"). In diesem vollen Umfang wird Software von einem Prozessor interpretiert, weshalb in der Veranschaulichung von Software als Gegenstück zur Hardware der Programmcode und die zur Verarbeitung bestimmten Daten zusammen als Software betrachtet werden.

Je nach Zusammenhang ist bei der Entgegensetzung eine oder mehrere der folgenden Bedeutungen gemeint:

  • Leicht veränderbare Komponente (Software) vs. schwer veränderbare Komponente (Hardware) in einem Computerdesign[1]
  • Universelle Maschine (Hardware) vs. Instruktionskode (Software)
  • Nicht-greifbar im Sinne von Funktionsbestandteilen eines Computersystems, die sich „nicht anfassen lassen[6] (Software) im Gegensatz zu den greifbaren Komponenten (Hardware). Software ließe sich über eine Telefonleitung übertragen, Hardware dagegen nicht.

Die Gegensätze sind in der englischsprachigen Begriffprägung (soft=weich, hard=hart) beabsichtigt.

Im allgemeinen Sprachgebrauch und in der Literatur zu Softwaretechnik wird die Definition von 'Software' eingeschränkt auf Computerprogramme und die mit ihnen eng verbundenen Ressourcen, wie z. B. Konfigurationsdaten neben Icons und Schriftarten, die zum Betrieb notwendig sind.[7] Die zur Verarbeitung bestimmten Daten (z. B. digitalisierte Musikstücke) werden hier meist nicht als Software verstanden.[8] Nach dieser Definition wird Software auch als Softwaresystem oder Softwareprodukt bezeichnet,[9] das als Beiwerk zusätzlich Bestandteile wie z. B. die Softwaredokumentation in der digitalen oder gedruckten Form eines Handbuchs enthalten kann.[10]

Auch die Begriffe Programm und Daten können einander entgegensetzt gebraucht werden, wobei 'Programm' dann die Funktion des Programms im Sinne als ausführende Instanz meint, 'Daten' das Bearbeitete.

Diese Rollen können ggfls. je nach Lage der Dinge vertauscht werden. Ein Quellprogramm, das von einem Übersetzer in ein Maschinenprogramm umgewandelt wird, tritt wie das erzeugte Binärprogramm als Daten auf. Ähnlich wie Hardware ein (als Daten aufgefasstes) Binärprogramm in dessen Funktion (Aktivität) umwandelt, kann dies auch ein Interpreter mit einem Quellprogramm oder ein Emulator mit dem Binärprogramm.

Dieser Zusammenhang, dass ein Programm sowohl als Daten als auch als Funktion auftreten kann, ist zentral in verschieden Disziplinen der Informatik, darunter die theoretische Informatik (u. a. Rekursionstheorie, Automatentheorie, Domaintheorie), und die technische Informatik (z. B. Von-Neumann-Architektur).

In den 1950er Jahren waren Software und Hardware noch verbunden und als Einheit wahrgenommen. Die Software war dabei Teil der Hardware und wurde als Programmcode bezeichnet. 1958 prägte der Statistiker John W. Tukey den Begriff Software erstmalig.[4]

Später sorgte dann die Entscheidung der US-Regierung in den 1970er Jahren für eine Neuheit, dass IBM auf Rechnungen Software und Hardware getrennt zu berechnen und aufzuführen habe. Dies entsprach einer Anerkennung der Einzelhaftigkeit von Software von offizieller Seite und einer endgültigen Aufspaltung von Hardware und Software bzw. einer Abgrenzung der Software von der Hardware.

Dieser Entwicklung folgte dann in den 1970er Jahren die Gründung von Firmen, die erstmalig nur mit Software handelten und nur Software und keine Hardware entwickelten. Zu diesen Firmen gehörte in den USA Microsoft und in Deutschland SAP. Die Existenz solcher Firmen erscheint im 21. Jahrhundert als Selbstverständlichkeit, stellte damals jedoch eine erhebliche Neuentwicklung dar.

Der logische Übergang zwischen Hard- und Software lässt sich an den ersten Spielhallenspielen verdeutlichen, wie das Spiel Breakout. Einstmals bestand deren komplettes Programm (der Ablauf, die Logik) bildlich gesehen aus „vorverdrahteten Schalttafeln“.[11] Sie verwendeten keinen Prozessor. Erst später, als solche Spiele für Computer programmiert wurden, und man anfing bei prozessorgesteuerten Geräten zwischen den Begriffen 'Hardware' und 'Software' zu unterscheiden, gab es diese Spiele als Software. Das Spiel bestand nicht mehr aus „vorverdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren Informationen, die gemeinsam auf einem Datenträger hinterlegt wurden.

Software ist immateriell[6] und besteht aus den Sprachen und Notationen, in denen sie formuliert ist.[3] Software kann zwar auf bestimmten Medien gespeichert, gedruckt, angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern enthalten sie nur.

Auch physisch gesehen können sogar die Bits, die die Software abbilden, immateriell sein. So weisen Datenträger als der Teil der Hardware eine bestimmte Beschaffenheit auf. In einem für Computer üblichen Binärsystem manifestiert sich die gemeinte Beschaffenheit in Form von gesetzten oder gelöschten Bits (den digitalen Daten), die darauf gespeichert werden. Elektronisch gesetzte Bits haben für sich keine Substanz und lassen sich somit „nicht anfassen“. Zur Veranschaulichung lässt sich ein Computer vorstellen, auf dem eine andere Variante des Betriebssystems installiert wird. Dafür muss die Hardware nicht erweitert oder ausgetauscht werden, was bedeutet, dass das Gerät äußerlich unverändert wirkt. Tatsächlich wird nur die Eigenschaft der Datenträger verändert; es werden Bits elektronisch gesetzt beziehungsweise gelöscht. Dennoch arbeitet das System dank der aktualisierten Software anders als zuvor, weil die gesetzten (geänderten) Eigenschaften vom Prozessor interpretiert werden.

Es ist zwar vorstellbar, Bits sichtbar und greifbar auf einem Trägermedium zu hinterlegen, doch grundsätzlich ist 'Software' ein abstrakter, von Trägermedien unabhängiger Begriff. Das trifft für den Gattungsbegriff ohnehin zu, aber auch für konkrete Ausprägungen wie ein bestimmtes Anwendungsprogramm.[12] Als Analogie dazu ist es für den Begriff 'Oper' oder 'Zauberflöte' nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist.

Innerhalb der Softwaretechnik wird eine einheitliche solide, konsistente und systematische Begriffsbildung durch eine hohe Innovationsgeschwindigkeit und Praxisnähe behindert.[13] So wird je nach gegebenem Zusammenhang unter 'Software' Unterschiedliches verstanden, zum Beispiel:

  • Im Zusammenhang mit der Ausführung auf einem Computer wird unter Software primär alles verstanden, was auf dem Rechner ausgeführt werden kann (das Programm im engeren Sinn, bestehend aus Befehlen und Datendefinitionen). Hinzu kommen die „mit [den Programmen] eng verbundenen Ressourcen, die zum Betrieb der Software zwingend erforderlich sind“.[14] Dies sind zum Beispiel Konfigurationsdateien, Schriftart-Dateien, Lookup-Tabellen, Datenstrukturen für Datenbanken und Datenbestände.
  • In engstem Sinn wäre unter 'Software' nur von der Hardware ausführbarer Maschinencode zu verstehen. Jedoch fällt darunter auch alles, was durch beliebige 'interpretierende Systeme', die Teil der Systemsoftware sind, ausgeführt werden kann, wie das bei Verwendung höherer Programmiersprachen und Entwicklungsumgebungen nahezu immer der Fall ist.[3]
  • Weiterhin können mit 'Software' unterschiedliche Mengen gemeint sein: Im engeren Sinn ist einzelnes Programm 'Software'. Jedoch wird etwa eine aus einer Vielzahl von Einzelprogrammen bestehende Buchhaltungsanwendung ebenfalls 'Software' genannt. Ebenso ein (nicht selbstständig lauffähiges) Unterprogramm, alle Anwendungen eines Unternehmens als Gesamtheit, die zum Betrieb der Programme gehörenden Daten(bank)strukturen und die verschiedensten Komponenten der Systemsoftware inkl. dem Betriebssystem.[15]
  • Im Zusammenhang mit dem Urheberrechtsschutz für Software gilt i. d. R. der 'Quellcode' als Schutzgegenstand.[16]
  • Im Kontext Erwerb von Software (als 'Softwareprodukt') gehört auch die Dokumentation zur 'Software'.[17]
  • Im weitesten Sinn und aus der Entstehungsgeschichte abgeleitet, ist Software alles, was nicht Hardware ist.[3] In diesem Zusammenhang gilt zum Beispiel auch jede Form von Daten als Software.

Der Begriff 'Software' wird also sowohl für konkrete einzelne Aspekte benutzt, als Gattungsbegriff für unterschiedliche Arten von Software und als Sammelbegriff für beliebige Mengen.

Software kann aus vielen unterschiedlichen Gesichtspunkten betrachtet werden, zum Beispiel:

Softwar: Typisierung, Zusammenhänge, Überblick

„Zwischen Hard- und Software besteht eine gewisse Aufgabenverteilung: Die Hardware garantiert [...] Quantität, also Tempo und Speicherkapazität, die Software sorgt für [...] die Abbildung der Anforderungen [...] auf die strukturell primitive Hardware“.[3]

Obwohl dem Begriff 'Software' teilweise Attribute wie Flexibilität, Individualität, Leistungsfähigkeit etc. zugeschrieben werden, wird letztlich alles, was der Computer 'tatsächlich tut', nicht von der Software, sondern ausschließlich durch die Hardware ausgeführt. Software 'beschreibt' lediglich, was getan werden soll und in welcher Form dies geschieht.

Dazu wird auf unterster Ebene der Maschinencode der Software über das Betriebssystem (d. h. ebenfalls durch dessen Maschienbefehle) in den Hauptspeicher des Computers geladen und dem Rechenwerk Schritt für Schritt (siehe Befehlszähler) zur Ausführung zugeführt.

Der Maschinencode muss hierzu in einer Form/Struktur vorliegen, die von der Hardware über deren darin implementierte Schnittstelle interpretiert und ausgeführt werden kann.[18] Inhalt und Struktur der Befehle zeigen an, was zu tun ist, welche Datenbereiche im Hauptspeicher dabei benutzt oder verändert werden sollen (über die im Befehlscode enthaltenen Registerangaben) und ggf. an welcher Stelle das Programm fortzusetzen ist.

Dieses Arbeitsprinzip gilt für jede Art von Software, auch wenn sie z. B. von Interpretern ausgeführt wird: Diese sind ebenfalls Software, die über ihren Maschinencode an der Hardwareschnittstelle wie beschrieben ausgeführt wird, was auch für Compiler und jede andere Systemsoftware gilt. Bei der Ausführung wirken also viele Schichten zusammen und führen als Gesamtheit zu Zustandsänderungen in der Hardware bzw. final zu den vorgesehenen Ergebnissen, etwa der Ausgabe einer Druckzeile, einem Datenzugriff oder der Anzeige eines Feldinhalts am Bildschirm. Bei in höheren Programmiersprachen entwickelten Anwendungen können so schon für relativ einfache Funktionen (wie Lesen aus der Datenbank) oft Hunderttausende oder Millionen von Maschinenbefehlen durchlaufen werden.

Das in modernen Computern mögliche parallele Ausführen mehrerer Programme/Prozesse wird im Wesentlichen durch das Betriebssystem bewirkt, das bei bestimmten Ereignissen den Wechsel von einer zur anderen 'Task einleitet und verwaltet. Siehe auch Multitasking.

Im systematischen Zusammenwirken vieler Komponenten, das nur unter Anwendung klar definierter Schnittstellen möglich ist, „gehört Software also zu den komplexesten Artefakten, die Menschen bislang geschaffen haben“.[3]

Hauptartikel: Softwaretechnik
  • Software wird unter Nutzung bestimmter Verfahren, Methoden und 'Werkzeuge' entwickelt. Dabei werden unterschiedliche Entwicklungsstadien durchlaufen, in denen jeweils unterschiedliche Zwischenstände der Software entstehen: Analysetätigkeiten (zahlreiche Entwicklungsdokumente) > Programmierung (Quellcode) > im Betrieb (Maschinencode oder ausführbarer Code). Im engeren Sinn der Ausführung auf dem Computer gilt lediglich Letzteres als 'Software'. Siehe auch Softwareentwicklung.
  • In diesem Zusammenhang ist Software Bearbeitungsgegenstand von Systemprogrammen: Wenn z. B. ein Compiler den Quellcode eines Programms liest, verarbeitet und einen Maschinen- oder Zwischencode erzeugt, so sind das aus dessen Sicht 'Daten'.
  • Einmal erzeugte Software kann mit verhältnismäßig geringen Kosten vervielfältigt werden, die meist durch Datenträger, Werbung und dem Herstellen von Verpackung und zu Papier gebrachten Dokumentationen anfallen.
  • Software verschleißt nicht durch Nutzung, unterliegt jedoch mit der Zeit der Softwarealterung.
  • Software ist meist austauschbar, fähig zur Aktualisierung, korrigierbar und erweiterbar, insbesondere dann, wenn bestehende Richtlinien eingehalten werden und der Quelltext verfügbar ist.
  • Software tendiert dazu, umso mehr Fehler zu enthalten, je komplexer sie ist. Fehler werden in aktualisierten Softwareversionen oder mithilfe eines Patches und i.d.R. nach Durchführung von Softwaretests behoben. Softwarefehler bezeichnet man auch als Bugs.
  • Weil Software unter Einsatz vieler unterschiedlicher Programmiersprachen und in vielen unterschiedlichen Betriebssystemen und Systemumgebungen entwickelt werden kann, sind Softwarestandards erforderlich, um Informationen system- und unternehmensübergreifend 'verstehbar' und austauschbar zu machen. Siehe auch Elektronischer Datenaustausch (Beispiele), Programmierstil.
Hauptartikel: Software-Akquisition

In der Entscheidung zur Anschaffung von Software lässt sich i. W. der Einsatz von Standardsoftware oder die eigene Herstellung (Individualsoftware) unterscheiden. Besonders im betrieblichen Umfeld zieht diese Entscheidung häufig hohe Kosten nach sich. Auch können solche Entscheidungen Grundlage zur Umsetzung der Unternehmensstrategie sein oder sollen Unternehmensprozesse maßgeblich verbessern. Zur Vermeidung von Fehlinvestitionen sollte der Anschaffung ein systematischer Entscheidungsprozess vorausgehen.

Hauptartikel: IT-Service-Management
  • Der Einsatz von Software erfordert je nach Einsatzbereich ein gewisses Maß an Organisation, um die zusammengehörenden Teile richtig einzusetzen und durch neue Versionen abzulösen (zum Beispiel in größeren Unternehmen im Releasemanagement).
  • Mitunter kann Software vorkonfiguriert werden, um so eine Neuinstallation zu beschleunigen und um Fehler bei der Konfiguration zu minimieren.

Im Wesentlichen für betriebliche Anwendungssoftware geltend kann Software aus (betriebs-)wirtschaftlicher Sicht als 'im Voraus geleistete geistige Arbeit', also als Investition betrachtet werden. Zum Beispiel erarbeiten die Programmautoren ein Lösungsverfahren für die korrekte Trennung aller deutschen Wörter in einem Textverarbeitungsprogramm. Damit ist im Voraus, also bevor diese Tätigkeit tatsächlich anfällt, schon für alle Schreiber, die mit diesem Textverarbeitungsprogramm arbeiten, die geistige Arbeit „korrektes Trennen deutscher Wörter“ geleistet. Dabei wird die Eigenschaft von Computern genutzt, auf sie verlagerte Aufgaben erheblich schneller und zuverlässiger ausführen zu können als dies bisher Menschen möglich war. Besonders auch in der Softwareentwicklung wird intensiv auf „im Voraus“ entwickelte Algorithmen und Codeteile zurückgegriffen werden ('Software-Wiederverwendung').

Ein ähnlicher Zusammenhang wird in der Arbeitssoziologie gesehen: Derartige softwarebasierte Maßnahmen sind geeignet, Arbeitsinhalte und -Abläufe erheblich zu verändern. Die Bandbreite reicht dabei vom Bereitstellen einfacher Hilfsmittel (etwa zur Summierung oder Durchschnittsermittlung) bis hin zur völligen Umgestaltung von Prozessen (durch Konzentration früher getrennter oder durch Zerlegung früher zentralisierter Arbeitsabläufe) – oder gar bis zu deren vollständigen Ersatz durch IT-Lösungen. Brödner et al nennen dies in[19] »materialisierte« Kopfarbeit. Siehe auch Rationalisierung, Optimierung, Taylorismus.

Software lässt sich nach verschiedenen Kriterien unterscheiden.

Unterteilung nach der Nähe zur Hardware beziehungsweise Anwender
  • Systemsoftware, die für grundlegende Funktionen des Computers erforderlich ist. Hierzu zählen insbesondere das Betriebssystem sowie Gerätetreiber.
  • systemnahe Software, der Bereich zwischen Betriebssystem und Anwendungssoftware z. B. Dienstprogramme, Datenbank-Verwaltungswerkzeuge, Programmierwerkzeuge und Middleware.
  • Anwendungssoftware, die den Benutzer bei der Ausführung seiner Aufgaben unterstützt und ihm dadurch erst den eigentlichen, unmittelbaren Nutzen stiftet
Unterteilung nach Art der Herstellung
  • Standardsoftware: Wird von einem Softwareanbieter erstellt, und kann von Kunden erworben werden
  • Individualsoftware: für einen (oder von einem) einzelnen Anwender individuell erstellt

Rechtlich wird beim Erwerb von Software zwischen Individualsoftware und Standardsoftware unterschieden: Für Individualsoftware wird ein Werkvertrag bzw. Werklieferungsvertrag abgeschlossen, der Erwerb von Standardsoftware gilt als Sachkauf.

Siehe auch: Seriennummer, Spyware, Langzeitarchivierung, Gebraucht-Software

Software nach der Art der Einbettung
  • nicht eingebettete Software (Software, die installiert wird)
  • fest in einem Gerät zu dessen Steuerung untergebrachte Software (z. B. in einem ROM), bezeichnet man als Firmware oder auch Eingebettete Software.
Einstufung nach Nutzungsrecht (Lizenz)
  • Adware
  • Beerware
  • Cardware (auch Postcardware)
  • Careware
  • Crippleware
  • Donationware
  • Freeware
  • Nagware
  • Shareware
  • Freie Software
Unterteilung nach Quellcode-Veränderbarkeit
  • Freie Software
  • Open Source
  • Proprietäre Software
Einstufung nach Verfügbarkeit
  • Abandonware
  • Vaporware
Andere Unterteilungen
  • Portable Software
  • Bananenware (unausgereifte Software)
  • Schlangenöl (Programm ohne echte Funktion, wird aber als Wundermittel angepriesen)
  • Shovelware (Sammlung von Software, wobei die Quantität zählt)
  • Riskware
  • Bloatware (mit Funktionen ohne synergetischen Nutzen überladene Software)

Die Verbreitung und Nutzung von Software unterliegt dem Urheberrecht. Es gibt in diesem Zusammenhang mehrere typische Überlassungsmodelle:

Verkauf
Der vollständige Verkauf von Software, inklusive der Überlassung von Weiterverbreitungsrechten, kommt praktisch nur zwischen Unternehmen vor, in der Regel im Rahmen von Auftragsprogrammierung oder beim Verkauf eines Softwareentwicklungsunternehmens.
Nutzungsrecht
Bei der meisten Software, die zum Beispiel für PCs „gekauft“ werden kann, wird in Wirklichkeit nur ein Nutzungsrecht überlassen. Dieses Modell ist auch bei der Auftragsprogrammierung üblich, bei der ein Unternehmen ein Programm für den Eigengebrauch eines anderen Unternehmens speziell entwickelt. Bei Freeware ist dieses Recht kostenlos, was nicht mit freier Software verwechselt werden darf.
Software as a Service
Die Software wird bei einem Dienstleister gehostet, die eigentliche Nutzung der Software kann entweder pro Zeitraum oder pro Nutzungseinheit berechnet werden und kann oft mit einem einfachen PC und z. B. per Webbrowser genutzt werden.
Freie Software/Open Source/GPL
Freie Software darf von jedem genutzt, beliebig verändert und weiterverbreitet werden. Oft unterliegt dieses Recht gewissen Einschränkungen, wie zum Beispiel der Nennung des Autors oder die Verpflichtung, veränderte Versionen unter die gleiche Lizenz zu stellen (GPL). Software, die nicht zu dieser Gruppe zählt, wird proprietär genannt.

Zwischen den oben genannten Hauptformen der Softwareverbreitung gibt es zahlreiche Zwischen- und Mischstufen.

Siehe auch: Lizenzen der freien Software, Lizenzmanagement

Hauptartikel: Freie Software und Open Source

‚Freie Software’ ist eine soziale Bewegung, die unfreie Software als gesellschaftliches Problem begreift.[20] Wobei „frei“ hier nicht „kostenlos“ bedeutet (‚Freie Software’ ist nicht dasselbe wie ‚Freeware’), sondern die Freiheiten für die Gesellschaft meint, die ein derart lizenziertes (auch kommerzielles) Produkt bietet. In den Augen der von Richard Stallman 1985 gegründeten Free Software Foundation (FSF) ist die Entscheidung für oder gegen freie Software deshalb primär eine ethische und soziale Entscheidung.

Dagegen begreift die 1998 gegründete Open Source Initiative (OSI) quelloffene Software als bloßes Entwicklungsmodell, wobei die Frage, ob Software quelloffen sein sollte, dort eine rein praktische und keine ethische Frage ist. Die FSF wirft der OSI daher eine Ablenkung von den wesentlichen Punkten vor.[21] Eric S. Raymond hat den Begriff ‚Open Source’ in der Annahme eingeführt, dass das unpopuläre Thema ‚Freiheit’ Geldgeber für solche Projekte abschrecken könne.

Auch wenn es sich heute um zwei unterschiedliche Bewegungen mit unterschiedlichen Ansichten und Zielen handelt, verbindet sie die gemeinsame Wertschätzung für quelloffenen Code, was in zahlreichen Projekten mündet, in denen sie zusammenarbeiten.

Hauptartikel: Softwaretechnik

Die Entwicklung von Software ist ein komplexer Vorgang. Dieser wird durch die Softwaretechnik, einem Teilgebiet der Informatik, systematisiert. Hier wird die Erstellung der Software schrittweise in einem Prozess von der Analyse über die Softwaremodellierung bis hin zum Testen als wiederholbarer Prozess beschrieben.

In aller Regel wird die Software nach der Entwicklung mehrfach angepasst und erweitert. Der Software-Lebenszyklus kann durchaus mehrere Jahre betragen.

  • Softwareunternehmen
  • Softwarekrise
  • Softwarequalität, Softwarequalität nach ISO
  • John W. Tukey: The Teaching of Concrete Mathematics. In: The American Mathematical Monthly. Vol. 65, no. 1 (Jan. 1958), pp 1–9. (Erstmalige Verwendung des Begriffs Software im heutigen Sinn)
  • F. R. Shapiro: Origin of the term software: Evidence from the JSTOR electronic journal archive. In: IEEE Annals of the History of Computing. 22 (April–June 2000), 69.
  • Sebastian von Engelhardt: Die ökonomischen Eigenschaften von Software. In: Jenaer Schriften zur Wirtschaftswissenschaft. 14/2006, Friedrich-Schiller-Universität Jena, Wirtschaftswissenschaftliche Fakultät, ISSN 1611-1311.
  1. ISBN 3-411-05232-5
  2. ISBN 978-3-409-12725-7
  3. [1]
  4. a b linfo.org – Software Definition, 1958, Januar-Ausgabe des American Mathematical Monthly (Titel: The Teaching of Concrete Mathematics). Tukey schreibt: „Today the "software" comprising the carefully planned interpretive routines, compilers, and other aspects of automative programming are at least as important to the modern electronic calculator as its "hardware" of tubes, transistors, wires, tapes and the like.“
  5. linfo.org – Software Definition, Zitat: „[…] In a broader sense it can also refer to all information (i.e., both programs and data) in electronic form, and it can provide a distinction from hardware, which refers to media and systems on which software can exist and be used […]“
  6. ISBN 978-3-8274-1705-3, 2009, 3. Auflage, S. 9: „Software ist ein immaterielles Produkt. Software kann man nicht anfassen und nicht sehen.“
  7. http://www.wissen.de/wde/generator/wissen/ressorts/technik/computer/index,page=1207964.html
  8. Auszug aus lexikon.meyer.de: „[...] Im allgemeinen Sprachgebrauch wird die Bezeichnung Software meist nur auf Programme bezogen, nicht aber auf andere Daten [...]“ (eine Verlinkung dahin ist nicht mehr möglich, da „Meyers Lexikon Online“ zum 23. März 2009 eingestellt wurde).
  9. ISBN 978-3-8350-0197-8.
  10. Lehr- und Übungsbuch Informatik 1. Hanser Verlag, 2003, Seite 311
  11. ISBN 978-3-423-34507-1, S. 144-149
  12. ISBN 978-3-941875-29-6, S. 35: „Weil Software Gegenstand einer schöpferischen Leistung ist, die man nicht anfassen kann, wird ihr zum Teil die Sachqualität abgesprochen.“
  13. ISBN 978-3-8274-1705-3, 2009, 3. Auflage, S. 3
  14. Wissen.de [2]
  15. dpunkt.de, in Kap. "Software spiegelt die Realität": Software-Systeme werden nicht monolithisch gebaut, sondern bestehen aus Modulen oder Komponenten, die miteinander die Gesamtfunktionalität des Systems bieten.
  16. softwarepatents.eu, "Programmcode in seiner linguistischen Form als Sprachwerk"
  17. Hanser Verlag Lehr- und Übungsbuch Informatik 1.' 2003, Seite 311
  18. Klaus Wüst Mikroprozessortechnik Kap. 7.5.4 ISA - Instruction Set Architecture [3] Die ISA [Diese Form] ist genau das, was für die Erstellung von Maschinenprogrammen bekannt sein muss.
  19. ISBN 3-8031-2082-9
  20. The Selected Essays of Richard Stallman (aktualisierte Fassung): "Open Source ist ein Entwicklungsmodell. Freie Software ist eine soziale Bewegung. Für die Open-Source-Bewegung ist nicht-freie Software eine suboptimale Lösung. Für die Freie-Software-Bewegung ist nicht-freie Software ein soziales Problem und freie Software ist die Lösung."; ursprüngliche Fassung: "Für die Freie-Software-Bewegung ist freie Software ein ethisches Gebot ... nicht-freie Software ist ein gesellschaftliches Problem ..."
  21. http://www.gnu.org/philosophy/free-software-for-freedom.de.html


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Internet

aus www.ifq.de, der freien Enzyklopädie

Das Internet (von englisch interconnected network), kurz das Netz, ist ein weltweites Netzwerk, bestehend aus vielen Rechnernetzwerken, durch das Daten ausgetauscht werden. Es ermöglicht die Nutzung von Internetdiensten wie E-Mail, Telnet, Usenet, Dateiübertragung, WWW und in letzter Zeit zunehmend auch Telefonie, Radio und Fernsehen. Im Prinzip kann dabei jeder Rechner weltweit mit jedem anderen Rechner verbunden werden. Der Datenaustausch zwischen den einzelnen Internet-Rechnern erfolgt über die technisch normierten Internetprotokolle. Die Technik des Internets wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben. Umgangssprachlich wird „Internet“ häufig synonym zum World Wide Web verwendet, da dieses einer der meistgenutzten Internetdienste ist und wesentlich zum Wachstum und der Popularität des Mediums beigetragen hat. Im Gegensatz dazu sind andere Mediendienste wie Telefonie, Fernsehen und Radio erst kürzlich über das Internet erreichbar geworden und haben parallel dazu ihre ursprüngliche Verbreitungstechnik.[1] Das Internet hat durch seine neuartige Technik und Verwendung eine eigene Sprachlichkeit hervorgebracht.

Visualisierung der verschiedenen Routen durch Teile des Internets.

Inhaltsverzeichnis

Der Begriff ‚Internet‘ ist ein Anglizismus, der sich aus der ursprünglich rein fachbezogenen Benutzung im Rahmen der gesellschaftlichen Durchdringung unverändert in der Alltagssprache als Eigenname zusammen mit der Kurzform Netz etabliert hat. Er wurde aus der Beschreibung „Interconnected Networks“, also „mit-/untereinander verbundene Netzwerke“, auch „Zusammengeschaltete Netzwerke“, gebildet, da das Internet aus einem Zusammenschluss zahlreicher Teilnetze mittels der technischen Standards des sehr dezentral strukturierten ARPANETs entstand.

Sprachkritiker, wie beispielsweise verschiedene Sprachvereine verwenden selber für Internet deutsche Synonyme wie Weltnetz, Zwischennetz oder Internetz. Obwohl seit Mitte der 1990er Jahre bekannt, sind diese Synonyme zwar in diversen sprachkritischen Publikationen zu finden[2], haben aber in der Alltagssprache keine praktische Bedeutung erlangt.[3] Weder Weltnetz[4] noch Zwischennetz[5] sind – im Gegensatz zu Internet – bis heute in den Duden (24. Auflage) aufgenommen worden. Eine besondere Verbreitung findet der Begriff Weltnetz in rechtsextremen Kreisen.[6][7]

Der Begriff Internet kann auch nach den Methoden der wissenschaftlichen Definitionslehre definiert werden. Danach handelt es sich beim Internet um ein Kommunikationsmittel, das durch die weltweite Verknüpfung von Computern zwecks Austausch von Text-, Bild-, Musik- und Videodateien gekennzeichnet ist.

Hauptartikel: Geschichte des Internets und Chronologie des Internets

Das Internet ging aus dem im Jahr 1969 entstandenen ARPANET hervor, einem Projekt der Advanced Research Project Agency (ARPA) des US-Verteidigungsministeriums. Es wurde zur Vernetzung von Universitäten und Forschungseinrichtungen benutzt. Ziel des Projekts war zunächst, die knappen Rechenkapazitäten sinnvoll zu nutzen, erst in den USA, später weltweit. Die anfängliche Verbreitung des Internets ist eng mit der Entwicklung des Betriebssystems Unix verbunden. Nachdem das Arpanet im Jahr 1982 TCP/IP adaptierte, begann sich auch der Name Internet durchzusetzen.

Nach einer weit verbreiteten Legende bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines Atomkrieges eine störungsfreie Kommunikation zu ermöglichen.[8][9] In Wirklichkeit wurden vorwiegend zivile Projekte gefördert, auch wenn die ersten Knoten von der ARPA finanziert wurden.

Die wichtigste Applikation in den Anfängen war die E-Mail. Bereits im Jahr 1971 überstieg das Gesamtvolumen des E-Mail-Verkehrs das Datenvolumen, das über die anderen Protokolle des Arpanet, Telnet und FTP, abgewickelt wurde. Im Jahr 1990 beschloss die US-amerikanische National Science Foundation, das Internet für kommerzielle Zwecke nutzbar zu machen, wodurch es über die Universitäten hinaus öffentlich zugänglich wurde. Tim Berners-Lee entwickelte um das Jahr 1989 am CERN die Grundlagen des World Wide Web. Am 6. August 1991 machte er dieses Projekt eines Hypertext-Dienstes im Internet mit einem Beitrag zur Newsgroup alt.hypertext öffentlich und weltweit verfügbar.[10]

Erster Web-Server am CERN

Rasanten Auftrieb erhielt das Internet seit dem Jahr 1993, als der erste grafikfähige Webbrowser namens Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde, der die Darstellung von Inhalten des WWW ermöglichte. Schließlich konnten auch Amateure auf das Netz zugreifen, was mit der wachsenden Zahl von Nutzern zu vielen kommerziellen Angeboten im Netz führte. Der Webbrowser wird deswegen auch als die „Killerapplikation“ des Internets bezeichnet. Das Internet ist ein wesentlicher Katalysator der Digitalen Revolution.

Neue Techniken verändern das Internet und ziehen neue Benutzerkreise an: IP-Telefonie, Groupware wie Wikis, Blogs, Breitbandzugänge (zum Beispiel für Vlogs und Video-on-Demand), Peer-to-Peer-Vernetzung (vor allem für File Sharing) und Online-Spiele (z. B. Rollenspiele oder Taktikshooter).

Das rasante Wachstum des Internets sowie Unzulänglichkeiten[11] für immer anspruchsvollere Anwendungen bringen es jedoch möglicherweise in Zukunft an seine Grenzen[12], so dass inzwischen Forschungsinitiativen begonnen haben, das Internet der Zukunft zu entwickeln.

Siehe auch: Web 2.0
Ein kleiner Ausschnitt des World Wide Web, dargestellt durch Hyperlinks.

Das Internet gilt bei vielen Experten als eine der größten Veränderungen des Informationswesens seit der Erfindung des Buchdruckes mit großen Auswirkungen auf diverse Bereiche des alltäglichen Lebens.

Schon Anfang der 1980er Jahre waren Mailbox-Netze entstanden, basierend auf Datenfernübertragung über das Telefonnetz oder auf Netzen wie Datex-P. Diese Technik blieb aber Experten vorbehalten, wie auch der Zugang zu weltweiten TCP/IP-Netzen lange Zeit nur über Universitäten möglich war. Erst mit kommerziellen Verbreitung der Internet E-Mail Anfang der 1990er und durchgreifend dann mit dem World Wide Web etablierte sich das Internet seit Mitte der 1990er Jahre zunehmend als Standard für die Verbreitung von Informationen jeder Art.

Waren dies in der Anfangszeit vor allem Kommunikation per E-Mail und der Selbstdarstellung von Personen und Firmen, folgte im Zuge der New Economy zum Ende des letzten Jahrtausends der Online-Handel. Mit steigenden Datenübertragungsraten und sinkenden Preisen und nicht zuletzt durch die Verfügbarkeit von DSL-Flatrates dient es auch der Verbreitung größerer Datenmengen. Hiermit verbunden sind vor allem massenhafte Urheberrechtsverletzungen, deren Bekämpfung heute einen Großteil der Internet-Gesetzgebung ausmachen.

Eine zunehmende Bedeutung erhält auch der Online-Journalismus, der heute zu einem großen Konkurrenten der klassischen Medienlandschaft geworden ist. Aktuell sehen Beobachter zudem einen Wandel des Nutzers vom „surfenden“ (passiven) Medienkonsumenten zum aktiven User Generated Content-Autor, der sich zu vielerlei Themen in Online-Communitys mit Gleichgesinnten vernetzt, die die klassische, bisher eher techniklastige Netzkultur ergänzt. Örtlich bedingte Grenzen sind im Internet völlig aufgehoben und werden durch themenbezogene Gruppen ersetzt. Durch die Vielzahl der Informationsquellen stellt der sinnvolle Umgang mit dem Internet größere Anforderungen an die Medienkompetenz der Benutzer als klassische Medien.

Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Netzes und durch Anonymität als schwer durchsetzbar angesehen werden. Bei Anwendungen wie E-Mail zeigt sich, dass die Technik auf das Phänomen des Spam überhaupt nicht vorbereitet ist. Dienste wie MySpace oder Facebook sollen den Aufbau Sozialer Netzwerke ermöglichen; Funktionen wie Instant Messaging erlauben online nahezu verzögerungsfreie Kommunikation. Mit der steigenden Verbreitung des Internets wird in den Medien der Begriff Internetsucht immer wieder thematisiert, der wissenschaftlich jedoch umstritten ist. Ob und wann die exzessive Nutzung des Internets einen „schädlichen Gebrauch“ oder Missbrauch darstellt und zur Abhängigkeit führt, wird in verschiedenen Studien aktuell untersucht.

Staatliche Stellen hatten lange Zeit von der Funktion des Internets wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Bis zur New Economy-Entwicklung ab dem Jahr 1998 war zudem die Bedeutung des Internets seitens der Politik unterschätzt worden. Dies änderte sich erst danach, Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsicherheiten zumindest de jure beseitigt. Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicherheit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat kritisiert, etwa durch das am 1. Januar 2008 in Kraft getretene Gesetz zur Vorratsdatenspeicherung, das am 3. März 2010 vom Bundesverfassungsgericht als verfassungswidrig eingestuft wurde. Auch international wird die Kontrolle des Internets durch den Staat aufmerksam beobachtet, etwa beim Internet in der Volksrepublik China.

Die EU-Kommission plante 1998 die Erstellung einer globalen Internet-Charta. Die Regeln sollten zuerst von den Teilnehmerländern und von Vertretern der Industrie und der Verbraucher innerhalb der EU besprochen werden und dann auf einer internationalen Konferenz als Grundlage einer Beratung dienen. Die Regelungen sollten nicht rechtsgültig verpflichtend sein, sondern nur als Leitlinie dienen. Vorgeschlagene Themenbereiche waren Sicherheit, Datenschutz und die Verschlüsselung. Dies solle internationale Geschäfte erleichtern.[13]

Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, welche zusammengeschaltet werden. Darunter sind hauptsächlich:

  • Providernetzwerke, an die die Rechner der Kunden eines Internetproviders angeschlossen sind,
  • Firmennetzwerke (Intranets), über welche die Computer einer Firma verbunden sind, sowie
  • Universitäts- und Forschungsnetzwerke.
Typische Verbindung zum Internet bei Heimanwendern
Typische Verbindung zum Internet bei Firmen

Physikalisch besteht das Internet im Kernbereich (in den Backbone-Netzwerken) sowohl kontinental als auch interkontinental hauptsächlich aus Glasfaserkabeln, die durch Router zu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr-Wachstums verlegt. Da sich die physikalisch mögliche Übertragungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber immens vergrößerte, besitzt das Internet hier zur Zeit teilweise Überkapazitäten. Schätzungen zufolge wurden im Jahr 2005 nur etwa 3 % der zwischen europäischen oder US-amerikanischen Städten verlegten Glasfasern benutzt[14]. Auch Satelliten und Richtfunkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen geringen Anteil.

Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupferleitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder UMTS, übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Kabelmodem oder UMTS, eines Internetproviders zu. Firmen oder staatliche Einrichtungen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet verbunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder - immer häufiger - Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.

In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer bereitstellen und welche nicht dauerhaft erreichbar sind. Solche Rechner werden als Client-Rechner bezeichnet. Server dagegen sind Rechner, welche in erster Linie Internetdienste bereitstellen. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell angebunden und die klimatisierten Räumlichkeiten sind gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer-Anwendungen versetzen auch obige Client-Rechner in die Lage zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen und so wird hier die strenge Unterscheidung des Client-Server-Modells aufgelöst.

An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungsstarke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht. Am DE-CIX in Frankfurt am Main, dem größten deutschen Austauschpunkt dieser Art, sind beispielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten autonomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist jedoch wirtschaftlich sinnvoller, dies gebündelt an Internet-Knoten vorzunehmen. Da in der Regel ein autonomes System, wie z. B. ein Internetprovider, nicht alle anderen auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt. Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog. Upstream- oder Transitprovider dem Kunden alle im Internet verfügbaren Erreichbarkeitsinformationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, sogenannte Tier-1-Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwickeln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen.

Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner sowie keinen Ort geben sollte, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der politischen Ebene des Internets nicht eingehalten. Die Internet Corporation for Assigned Names and Numbers (ICANN), ist die hierarchisch höchste Organisation zuständig für die Vergabe von IP-Adressen, die Koordination des Domain Name Systems (DNS) und der dafür nötigen Root-Nameserver-Infrastruktur, sowie die Festlegung anderer Parameter der Internetprotokollfamilie, welche weltweite Eindeutigkeit verlangen. Sie untersteht wenigstens indirekt dem Einfluss des US-Wirtschaftsministeriums. Um diesen Einfluss zumindest auf das DNS einzugrenzen, wurde das in erster Linie europäische Open Root Server Network aufgebaut, das jedoch mit dem Jahresende 2008 aus nachlassendem Interesse wieder abgeschaltet wurde.[15][16]

Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Ausfallsicherheit bei. Für die Kommunikation zwischen zwei Nutzern existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete, beziehungsweise eine Anfrage und die Antwort, je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kernbereich des Internets meistens keine schwerwiegenden Auswirkungen, ein Ausfall der einzigen Verbindung auf der letzten Meile lässt sich jedoch nicht ausgleichen. Im Bereich der Katastrophenforschung werden flächendeckende Missbräuche oder Ausfälle des Internets, sog. D-Gefahren, sehr ernst genommen.

Hauptartikel: Internet Protocol und Domain Name System

Das Internet basiert auf der Internetprotokollfamilie, welche die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll, in welchem die weltweit eindeutige Adressierung von angebundenen Rechnern festgelegt und benutzt wird, heißt Internetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie ein Telefonat, sondern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP-Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, welche jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.

Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs beschrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Paketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unabhängig von den Netzwerktechniken der Protokollschichten unterhalb von IP geschehen kann, so wie ein 40-Fuß-ISO-Container im Güterverkehr nacheinander per Schiff, Bahn oder Lastwagen transportiert werden kann, um an sein Ziel zu gelangen.

Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internetprotokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der heute üblichen Version IPv4 um 4 Byte (32 Bit), die als 4 Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Version IPv6 sind dies 16 Byte (128 Bit), die als 8 durch Doppelpunkt getrennte Blöcke aus je 4 hexadezimalen Ziffern angegeben werden, z. B. 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Man kann sich diese Adressen wie Telefonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.

Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele administrative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel „www.ifq.de.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht – vom Nutzer unbemerkt – immer dann, wenn er etwa im Webbrowser auf einen neuen Hyperlink klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP-Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, welche in den Namen durch die Punkte erkennbar wird, bilden die Root-Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht. Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.

Im Kernbereich des Internets müssen die IP-Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, welche über den kürzesten Weg zur Ziel-IP-Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingprotokolle automatisch erstellt und aktuell gehalten werden, so wird automatisch auf ausgefallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP-Adressen mit Hilfe von Netzmasken, bei IPv6 spricht man von Präfixlängen, zu Zielnetzen zusammengefasst und diesen wird jeweils ein Ausgang des Routers, zum Beispiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet. Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinformationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines autonomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default-Route, oft auch Standard- oder Default-Gateway genannt, welche für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich dem französischen Wegweiser „Toutes Directions“ (Alle Richtungen) im Straßenverkehr. Die Router im Kernbereich verwalten zurzeit Routingtabellen mit bis zu 360.000 Zielnetzen für IPv4 und 5500 für IPv6.[17]

In den Nutzdaten des Internetprotokolls werden abhängig vom verwendeten Dienst immer noch Protokolle höherer Schichten (wie TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP) und das Hypertext Transfer Protocol Secure (HTTPS) für verschlüsselte Seiten. E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), ebenfalls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt.

Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Organisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige, IP-Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zugegriffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öffentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und es ist freier wählbar, wie die Filterung des Datenverkehrs erfolgen soll.

Siehe auch: Green IT

Der Strombedarf in den Privathaushalten für die Nutzung des Internets ist in den letzten Jahren erheblich angestiegen und wird seriösen Schätzungen zufolge auch in den nächsten Jahren weiter steigen. Im Jahr 2003 wurden in Deutschland etwa 6,8 Milliarden Kilowattstunden elektrischer Strom für den Betrieb des Internets benötigt, für das Jahr 2010 gehen Schätzungen von einem Energiebedarf des Internets von 31,3 Milliarden Kilowattstunden nur in Deutschland aus. Berücksichtigt wurden sowohl die Endgeräte von Privathaushalt und Gewerbe sowie der Energieaufwand zur Bereitstellung der notwendigen Infrastruktur des Internets an Serverstandorten. Nicht in diese Rechnung eingegangen ist der Energiebedarf von Serverstandorten im Ausland.[18] Am Stromverbrauch eines Privathaushaltes ist die Nutzung des Internets zu einem großen Teil beteiligt.

Für das Jahr 2005 wird weltweit von einem Energieverbrauch von 123 Milliarden Kilowattstunden nur für den Betrieb der Infrastruktur für das Internet ausgegangen. Unberücksichtigt bleiben nach dieser Studie die Geräte der Endverbraucher.[19] Aufgrund der stetigen Vergrößerung des Netzes auch in den Entwicklungsländern ist mit einem weiteren Anstieg des Verbrauches zu rechnen, derzeit werden etwa 0,8 % der weltweiten Stromerzeugung für den Betrieb des Internets benötigt.[20]

Im Jahr 2012 beläuft sich das Datenaufkommen im festverkabelten, öffentlich zugänglichen, Internet auf mehr als 26,7 Exabyte (1 Exabyte = 1 Mrd. Gigabyte) pro Monat, was einem täglichen Datenaufkommen von annähernd einem Exabyte entspricht. Die Datenmenge von einem Exabyte ist vergleichbar mit der mehr als 2500-fachen Datenmenge aller Bücher, die jemals in jeder Sprache auf der Welt geschrieben wurden.[21] Das mobile Datenaufkommen (Datenaustausch über Mobilfunknetze) beläuft sich im Jahr 2012 auf über 1,1 Exabyte Daten monatlich.

Bis zum Jahr 2015 wird das Datenaufkommen im festverkabelten Internet voraussichtlich auf annähernd 60 Exabyte pro Monat wachsen. Im mobilen Internet wird ein Datenaufkommen von mehr als 6,2 Exabyte monatlich prognostiziert. Der größte Anteil der übertragenen Daten (über 50%) wird hierbei von Videodiensten (Video-on-Demand) ausgemacht. [22]

Verbreitung des Internets in Europa
Land Anteil der Internetnutzer
Island 91 %
Norwegen 87 %
Dänemark 83 %
Niederlande 82 %
Finnland / Luxemburg 81 %
Schweden 80 %
Schweiz 79 %
Österreich 74 %
England / Estland 69 %
Deutschland / Slowenien 66 %
Spanien 46 %
Italien 41 %
Russland 26 %
Ukraine 15 %

Dieser Abschnitt behandelt den Zugang zum Internet unter demographischen Aspekten; ein separater Artikel behandelt technische Prinzipien und Varianten des Internetzugangs.

Die Anzahl der Teilnehmer oder angeschlossenen Geräte im Internet ist nicht exakt bestimmbar, da Nutzer mit unterschiedlichen technischen Geräten (PC, Mobilgeräte) über verschiedene Anschlusstechniken kurzfristig Teil des Internets werden und dieses auch wieder verlassen. Laut IWS hatten im März 2007 etwa 16,9 Prozent der Weltbevölkerung Zugang zum Internet.[23] Laut EITO nutzen Anfang 2008 1,23 Milliarden Menschen das Internet.[24] In der EU nutzen Anfang 2008 mehr als die Hälfte (51 Prozent) der 500 Millionen EU-Bürger regelmäßig das Internet, wobei 40 Prozent das Internet gar nicht benutzen. In Europa gibt es starke Unterschiede bei den regelmäßigen Internetbenutzern: siehe Tabelle. 80 Prozent der Haushalte mit Internetanschluss verfügen über einen Breitbandzugang.[25] In den USA sind es bereits 75 Prozent, skandinavische Länder 70 Prozent, osteuropäische Staaten teilweise bei 14 Prozent. Besonders verbreitet ist das Internet in Estland, da Estland per Gesetz den kostenlosen Zugang ins Internet garantiert.

In China hatten nach dem Report über die Entwicklung des Internets Mitte 2007 162 Millionen Menschen einen Internetzugang, davon besaßen 122 Millionen einen Breitbandanschluss.[26] Bei jungen Europäern verdrängt das Internet das Fernsehen und andere traditionelle Medien.[27] US-Amerikaner nutzen als Nachrichtenquellen vorwiegend (48 Prozent) das Internet.[28]

2011-05-12 Cornelia Rogall-Grothe Bundesinnenministerium.ogg
Die IT-Beauftragte der Bundesregierung Cornelia Rogall-Grothe über Netzstrategien, IPv6, Soziale Netzwerke und Datenschutz (Mai 2011)

Etwa 60 Prozent aller Deutschen nutzen regelmäßig das Internet, Tendenz steigend um 2 bis 3 Prozent jährlich. In etwa 75 Prozent der deutschen Haushalte stehen PCs mit Internetanschluss, die jedoch mehr von jungen Menschen als von alten Menschen genutzt werden. In Deutschland verfügen ungefähr 68 Prozent der Erwachsenen über einen Internetanschluss.[29] Etwa 80 Prozent der deutschen Jugendlichen (10-13 Jahre) nutzen das Internet.[30] Neben alten Menschen nutzen in Deutschland auch sozial Schwache und Arbeitslose das Internet weniger[31][32] (siehe auch Digitale Kluft). In Deutschland verfügen ca. 60 Prozent der Internetnutzer über einen Breitbandzugang.[33] In der Schweiz verfügen im Jahr 2006 67 Prozent der Bevölkerung über einen privaten Internetzugang.[34]

Deutsche besuchen statistisch gesehen regelmäßig acht Internet-Seiten. (Männer: durchschnittlich 9,4; Frauen: 6,4 Seiten / 14- bis 19-jährige: 5,8; 30 bis 39 Jahre alte: 9,1 Seiten). Die Jungen nutzen bevorzugt Unterhaltungsangebote.[35] Die deutschen Männer sind im Durchschnitt 1,3 Stunden am Tag online, bei den deutschen Frauen sind es durchschnittlich 0,8 Stunden.[36]

Dieser Abschnitt behandelt die parallele Nutzung von Internet und Fernsehen.

Inzwischen nutzen immer mehr Europäer Fernsehen und Internet gleichzeitig. Eine Studie von Anfang 2010, basierend auf der Forschung der EIAA Mediascope Studie, besagt, dass bereits 70 % der Fernsehzuschauer gleichzeitig surfen. 75 % der Briten und Dänen sowie 73 % der Deutschen und 71 % der Belgier nutzen mindestens einmal pro Woche beide Medien gleichzeitig. Die Umfrage hat außerdem ergeben, dass jeder Zweite nach Kontakt mit einer TV-Werbung im Internet danach surft.[37]

Das Internet hat eine eigene Art der Schriftlichkeit hervorgebracht. Ebenso haben soziale Netzwerke zur Entwicklung einer eigenen Netzkultur mit verschiedenen sprachlichen Ausprägungen beigetragen.

Das Internet eignet sich dafür, über zeitliche und räumliche Distanzen hinweg schriftlich zu kommunizieren. Es vereint dabei multimediale Aspekte und integriert diese in seine Schriftlichkeit (z. B. Emoticons – Symbole, die sich bewegen und bestimmte Gefühlszustände darstellen sollen). Außerdem unterliegt es einer beständigen Metamorphose und hat keinen Anspruch auf endgültigen Werkscharakter. Die Texte im Internet sind kodiert, somit immateriell und exteriorial. Die schriftlichen Produkte im Internet lassen sich schnell verändern und verlangen die Bereitschaft, sich beständig auf Neues einzustellen.

Im Internet wird Literatur zur Verfügung gestellt und Literatur geschrieben. So entstanden etwa literarische Gattungen wie Digitale Poesie, Weblogs oder kollaboratives Schreiben im Netz. Literarische Produktion im Internet folgt anderen Kriterien als herkömmliche Literatur und Textproduktion. Literatur im Internet ist von Aspekten der Technik, Ästhetik und Kommunikation geprägt. So haben beispielsweise Neal Stephenson und sein Team mit dem Schreiben eines Romans („The Mongoliad”) im Internet begonnen, bei dem eine Community von Autoren interaktiv mitschreibt. Neben dem eigentlichen Text gibt es eine eigene E-Publishing-Plattform („Subutai“) mit Videos, Bildern, einer Art www.ifq.de und einem Diskussionsforum zum Roman.

  • Anonymität im Internet
  • Internetrecht
  • Internet Archive
  • Internet-Backbone
  • Internetkriminalität
  • Internetworking
  • Internet2
  • Internet Society
  • Netzneutralität
  • Zensur im Internet
  • Holger Bleich: Bosse der Fasern. Die Infrastruktur des Internet. In: c't 7/2005, S. 88–93 (21. März 2005)
  • Manuel Castells: Die Internet-Galaxie - Internet, Wirtschaft und Gesellschaft. Wiesbaden 2005, ISBN 3-8100-3593-9.
  • Ch. Meinel, H. Sack: WWW - Kommunikation, Internetworking, Web-Technologien. Springer-Verlag, Berlin Heidelberg New York 2004.
  • Andreas Metzner-Szigeth: Internet & Gesellschaft: Ein Humanes Projekt?. In: Sic et Non – Zeitschrift für Philosophie und Kultur – im Netz, No. 8, 2007
  • Stefan Scholz: Internet-Politik in Deutschland. Vom Mythos der Unregulierbarkeit. Münster 2004, ISBN 3-8258-7698-5.
  • Andreas Schelske: Soziologie vernetzter Medien. Grundlagen computervermittelter Vergesellschaftung. Oldenbourg Verlag, München 2006, ISBN 3-486-27396-5 (Reihe: Interaktive Medien. Herausgeber: Michael Herczeg).
  • Philip Kiefer: Internet & Web 2.0 von A bis Z einfach erklärt. Data Becker, Düsseldorf 2008, ISBN 978-3-8158-2947-9.
  • Bridgette Wessels: Understanding the Internet : a socio-cultural perspective. Palgrave Macmillan, Basingstoke 2010, ISBN 978-0-230-51733-2.
  • Christine Böhler: Literatur im Netz. Triton, Wien, 2001. ISBN 3-85486-103-6.
  • Johannes Fehr (Hg.): Schreiben am Netz. Haymon, Innsbruck, 2003. ISBN 3-85218-422-3.
  • Jannis Androutsopoulos: Neue Medien – neue Schriftlichkeit? In: Mitteilungen des Deutschen Germanistenverbandes 1/07, 2007, S. 72–97 (PDF).
  • Christiane Heibach: Literatur im Internet: Theorie und Praxis einer kooperativen Ästhetik. Dissertation, Heidelberg 1999, ISBN 3-89825-126-8.
  1. Vinton Cerf, Yogen Dalal, Carl Sunshine: RFC 675: (Internet Transmission Control Program, December 1974)
  2. ISBN 3-00-005949-0, S. 71
  3. Siehe Leipziger Wortschatz zu den Häufigkeitsklassen von Internet (HK 8), Weltnetz (HK 20), Zwischennetz (HK21) und Internetz (HK 22); bei 'Weltnetz' ein Verhältnis von 4096:1 bzw. ein Anteil von 0,0244 %, die anderen Begriffe entsprechend geringer
  4. Weltnetz
  5. Zwischennetz
  6. Neonazis im “Weltnetz”: Wenige Aktivisten - mit viel Raum, NPD-Blog, 7. März 2007
  7. Den Extremisten auf der Spur, Die Welt, 23. August 2000
  8. Stimmt's - Eine bombige Legende, Die Zeit, Drösser
  9. A Brief History of the Internet bei e-OnTheInternet von Barry Leiner, David D. Clark, Robert E. Kahn, Jonathan Postel, u.a.
  10. Tim Berners-Lee: WorldWideWeb - Executive Summary, 6. August 1991
  11. M. Handley: Why the Internet only just works BT Technology Journal, Vol 24, No 3, July 2006.
  12. RFC 4984 Report from the IAB Workshop on Routing and Addressing, September 2007
  13. Neue EU-Initiative für globale Internet-Regeln. Die Welt (5. Februar 1998). Abgerufen am 8. März 2011.
  14. Glasfasern sind nur zu 3 % beleuchtet
  15. Alternative DNS-Root-Server vor der Abschaltung
  16. https://lists.dns-oarc.net/pipermail/dns-operations/2008-October/003339.html
  17. BGP Analysis Reports
  18. Benedikt Ziegenfuss: Internet Grund für hohen Stromverbrauch. WinFuture.de, vom 27. Januar 2003]
  19. Schadet Surfen dem Klima?, WDR.de, Jörg Schieb, 19. Februar 2007
  20. Stephen Shankland: U.S. servers slurp more power than Mississippi. c|net news.com, vom 14. Februar 2007]
  21. Cisco Visual Networking Index - What is a Zettabyte?
  22. Cisco Visual Networking Index
  23. World Internet Users and Population Stats
  24. bitkom.de: Fast jeder fünfte Mensch auf der Welt ist online: 2010 werden voraussichtlich 1,5 Milliarden Menschen online sein
  25. golem.de: EU: Mehr als die Hälfte der EU-Bürger nutzt das Internet
  26. heise.de: China hat 162 Millionen Internetnutzer, 19. Juli 2007. Originalbericht (chinesisch)
  27. heise.de: Bei den jungen Europäern verdrängt das Internet das Fernsehen und andere Medien
  28. heise.de: Internet ist für die Hälfte der Amerikaner primäre Nachrichtenquelle
  29. heise.de: Studie: 68 Prozent der erwachsenen Deutschen sind online
  30. golem.de: Klassisches wird von elektronischem Spielzeug verdrängt: „Während schon 80 Prozent der 10- bis 13-jährigen mindestens ab und zu im Netz unterwegs sind, ist es bei den 6- bis 9-jährigen jeder Dritte.“
  31. spiegel.de: 60 Prozent der Deutschen sind online
  32. golem.de: Studie: Mehr als 40 Millionen Deutsche sind im Netz
  33. heise.de: Zahl der deutschen Internetnutzer wuchs um 5 Prozent
  34. heise.de: „… im Jahr 2006 verfügen 67 Prozent der Schweizer Bevölkerung über einen privaten Internetzugang.“
  35. http://www.sevenonemedia.de/web/sevenone/relevant-set Relevant Set 2011
  36. Allensbacher Computer- und Technik-Analyse 2007: Durchschnittliche Internetnutzung am Tag, angeboten durch: statista.org
  37. wuv.de


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Wittenburg

aus www.ifq.de, der freien Enzyklopädie

Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Wittenburg (Begriffsklärung) aufgeführt.
Wappen Deutschlandkarte
53.51132222222211.07570833333340Koordinaten: 53° 31′ N, 11° 5′ O
Basisdaten
Bundesland: Mecklenburg-Vorpommern
Landkreis: Ludwigslust-Parchim
Amt: Wittenburg
Höhe: 40 m ü. NN
Fläche: 46,25 km²
Einwohner:

4.834 (31. Dez. 2010)[1]

Bevölkerungsdichte: 105 Einwohner je km²
Postleitzahl: 19243
Vorwahl: 038852
Kfz-Kennzeichen: LWL
Gemeindeschlüssel: 13 0 76 152
Adresse der
Stadtverwaltung:
Molkereistraße 4
19243 Wittenburg
Webpräsenz: www.wittenburg.de
Bürgermeister: Norbert Hebinck
Lage der Stadt Wittenburg im Landkreis Ludwigslust-Parchim
Über dieses Bild

Wittenburg ist eine Stadt im Landkreis Ludwigslust-Parchim in Mecklenburg-Vorpommern (Deutschland). Sie ist seit 1. Januar 2004 Sitz des Amtes Wittenburg, dem weitere drei Gemeinden angehören.

Inhaltsverzeichnis

Die Kleinstadt im Westen von Mecklenburg-Vorpommerns liegt an dem kleinen Fluss Motel. Zu Wittenburg gehören die Ortsteile Helm, Klein Wolde, Wölzow und Ziggelmark.

Der Jahresniederschlag beträgt 653mm. Der Niederschlag liegt im unteren Drittel der Messstellen des Deutschen Wetterdienstes. 31 % zeigen niedrigere Werte an. Der trockenste Monat ist der Februar; der meiste Regen fällt im August. Im niederschlagsreichsten Monat fällt etwa 1,6-mal mehr Regen als im trockensten Monat. Die jahreszeitlichen Niederschlagsschwankungen liegen im unteren Drittel. In nur 2 % aller Orte schwankt der monatliche Niederschlag weniger stark.

.


Amtsbergturm

Schon aus vorgeschichtlicher Zeit lassen sich in und um Wittenburg Spuren menschlicher Siedlungstätigkeit nachweisen. Mit der einsetzenden Völkerwanderung rückten aus den östlichen Gebieten wendische Siedler vor. In der Gegend um das heutige Wittenburg ließ sich ein Stamm der Polaben nieder. Zu dieser Zeit wird die Entstehung der Burganlage mit dem späteren Namen „Amtsberg“ im sumpfigen Gebiet der Motelniederung vermutet.

Um 1150 begann die Wiedereroberung des Wendenlandes durch die überlegene Kriegsmacht des Sachsenherzogs Heinrich des Löwen, der den größten Teil des mecklenburgischen Gebietes in Besitz nahm, aufteilte und die Wenden in Sandgegenden zurückdrängte. Die slawische Burganlage wurde vermutlich in den Kämpfen zerstört. Deutsche Siedler, unter Anführung des alt-sächsischen Edelfreien-Geschlechts der Witten, nutzten den vorhandenen Standort und errichteten darauf eine neue Burg zum Schutz des eroberten Landes. Am Fuß dieser Burg entwickelte sich Handwerk und Handel. So wurde die neue Burg Ausgangspunkt für die Stadtgründung Wittenburgs.

Bereits 1194 wird Wittenburg als „provincie“ der Grafschaft Ratzeburg in einer Urkunde genannt. Am 25. Mai 1201 kommt es bei Waschow zu einer Schlacht zwischen den Ratzeburgern und Schweriner Grafen. Das Land Wittenburg fällt der siegreichen Schweriner Grafschaft zu. Unter dem neuen Grafen setzt eine lebhafte Besiedlung ein.

Stadtgründung

Die Stadtgründung Wittenburgs ist urkundlich nicht eindeutig überliefert. 1226 verleiht Kaiser Friedrich II. der Stadt Lübeck die Reichsfreiheit und sichert ihr den ungehinderten Handelsverkehr mit Hamburg, Schwerin, Ratzeburg und Wittenburg zu. Dieses Datum steht auch für die Stadtgründung Wittenburgs, möglicherweise erfolgte diese aber auch schon früher. 1230 wurde Wittenburg bereits als „civitas“ erwähnt. Die Kirche wird ebenfalls 1230 im Ratzeburger Zehntregister erwähnt, welches die damals zum Bistum Ratzeburg gehörenden Ortschaften geordnet nach Kirchspielen auflistet.
In Alt-Wittenburg herrschte das 1319 bestätigte Lübische Stadtrecht.

Hauptstadt der Grafschaft
St. Bartholomäus

Im Jahr 1282 war Wittenburg Hauptstadt einer selbständigen Grafschaft, die sich von der Elbe bei Boizenburg bis hinter Crivitz erstreckte. Ungefähr siebzig Jahre dauerte diese Wittenburger Grafenzeit, die Glanzperiode der Stadt, denn durch die regen Handelsbeziehungen mit Lübeck blühte der Ort wirtschaftlich auf. In dieser Zeit spielte die Wehrhaftigkeit eine entscheidende Rolle. Noch heute zeugen Reste der einseitigen Befestigungsanlagen von der Stärke dieser Bauten; das Mühlentor wurde 1850 und das Steintor 1869 abgerissen.

Mit dem Bau der Stadtkirche St. Bartholomäus wurde um 1240 begonnen. Die frühgotische Backsteinkirche wurde zwischen 1257 und 1284 geweiht.

Wittenburg bei Mecklenburg

Die Stadt Wittenburg fiel 1358 durch Kauf an die mecklenburgischen Herzöge. Viele Jahre diente die Burganlage als Notlager und Nebenresidenz dieser und später als Wohnsitz fürstlicher Witwen. 1496 hatte die Stadt 500 bis 600 Einwohner. Gegen Ende des 16. Jahrhundert weilte Herzogin Sophia mehrere Male im Wittenburger Schloss. Die tatkräftige Herzogin setzte sich für die Einführung und Förderung der Eisenindustrie ein. Durch die Ausnutzung des in der Gegend vorkommenden Raseneisensteins siedelte sie Eisenschmelz- und Hammerwerke an und versuchte damit, den Wohlstand der Stadt zu heben. Diese Werke sind nach dem Dreißigjährigen Krieg wieder verschwunden.

Hungerturm in Wittenburg

Auch während des Dreißigjährigen Krieges stand Wittenburg unter dem Schutz von Herzogin Sophie, indem sie Schutzbriefe erwirkte. In kämpferische Handlungen war Wittenburg in den ersten Kriegsjahren nicht verwickelt, jedoch zermürbten ständige Unternehmungen zur Verteidigung der Stadt und die damit verbundenen Steuern und Abgaben die Einwohner. Schlimm wütete 1629/1630 die Pest in der Stadt. In den folgenden Jahren griffen kriegerische Handlungen auch auf Mecklenburg über. Einquartierungen und Plünderungen mussten die Bürger Wittenburgs mehrfach erleiden. Der schlimmste Tag jedoch war der 1. Februar 1642, als Kroaten die Stadt im Sturm nahmen und furchtbar hausten. 1644 lebten noch etwa 100 Bürger in der Stadt.

1657 brannte fast die gesamte Stadt nebst Rathaus, Kirchendach und Glockenstuhl bis auf drei Häuser nieder. 1679 und 1726 wüteten weitere Stadtbrände.

1735 wurden die Stadt und das Amt Wittenburg mit sieben anderen Ämtern von Herzog Christian Ludwig II. an Kurfürstentum Braunschweig-Lüneburg verpfändet. Dies war die Folge der Reichsexekution, welche Christian Ludwigs Bruder Karl Leopold verursacht hatte. Eine lüneburgische Besatzung lag 33 Jahre in der Stadt. Erst 1768 wurden diese Landesteile mit einer Million Talern wieder eingelöst. Ein Motiv auf dem Wittenburger Notgeld zeigt den Tross mit der Ablösesumme.

Franzosenzeit

In der im November 1806 beginnenden Besetzung durch Napoléon Bonaparte, der „Franzosenzeit“, hatten die Wittenburger besonders zu leiden. Die Stadt lag an der großen Heerstraße zwischen Boizenburg und Schwerin und war damit eine besonders günstige Station für unaufhörliche Truppendurchzüge und Einquartierungen.

Das 19. Jahrhundert brachte durch seine Fortschritte in der Technik und die dadurch bewirkten Umwälzungen auf den Gebieten des Verkehrs und des wirtschaftlichen Lebens sowie in den politischen Verhältnissen auch für Wittenburg eine neue Zeit. Es entstanden neue Straßenzüge, erste Firmen gründeten sich, wie die Gasanstalt und Molkerei. Moderne Bauten, so das Amtsberggebäude 1848, das Rathaus 1852, die Stadtschule am Lindenwall 1874, die kaiserliche Post 1889, der Turmanbau an der Kirche 1908/1909, das Gaswerk 1909 und das Bahnhofsgebäude wurden errichtet. Die Entwicklung wurde mit dem Anschluss an die Eisenbahnlinie Hagenow–Neumünster im Jahre 1894 stark vorangetrieben. Bis 1923 wurde eine eigene Stromversorgung aufgebaut.

Krieg und Zerstörung

Von direkten Kampfhandlungen im Zweiten Weltkrieg war Wittenburg nicht betroffen. Der Abwurf von Bomben forderte in Wittenburg einige Todesopfer. Es wurden Gebäude zerstört, die jedoch noch während der Kriegszeit wieder aufgebaut wurden. Nach der Kapitulation besetzten zunächst US-amerikanische, dann britische Truppen die Stadt. Kurz darauf übernahm die sowjetische Besatzungsmacht die Kontrolle. Mit ihr kamen Diebstähle, Vergewaltigungen und der Abtransport von Akademikern, Unternehmern und Großbauern in das sowjetische Speziallager Nr.9 Fünfeichen/Neubrandenburg.[2] In der Stadt wurden zahlreiche Flüchtlingslager eingerichtet. Die Stadtschule diente als Lazarett. Durch den Zustrom von Umsiedlern, Flüchtlingen und Vertriebenen aus den Ostgebieten erhöhte sich die Einwohnerzahl kurz nach dem Krieg von 4300 auf 8000. Viele Umsiedler fanden in Wittenburg eine neue Heimat.

Wiederaufbau und DDR

Im Gesamtgefüge der damaligen DDR entwickelte sich auch in Wittenburg das wirtschaftliche und kulturelle Leben. In der kleinen Stadt dominierten zwei größere Betriebe, die Milchkonservenfabrik und die Konsum-Süßwarenfabrik. Es gab eine Reihe größerer und kleinerer Handwerksbetriebe. Hauptsächlich war Wittenburg vom Obstanbau und von der Landwirtschaft geprägt.

Die Wendezeit

Im Herbst 1989 wurde durch Kundgebungen und Friedensgebete, durch Demonstrationen und Bürgerforen die Wende auch in Wittenburg eingeleitet. Kurz nach der Grenzöffnung hat es die Stadt Wittenburg verstanden, ihre günstige örtliche Lage und vor allem die unmittelbare Anbindung an die Bundesautobahn 24 Hamburg–Berlin zu nutzen. Durch die Bereitstellung eines attraktiven Gewerbegebietes beidseitig der Hagenower Chaussee siedelten sich in kürzester Zeit diverse hiesige und auswärtige Investoren an. Der Branchenmix der Firmen ist groß und reicht von Nahrungsmittel- und Elektroindustrie, Maschinenbau und Druckerei über Dienstleistungseinrichtungen bis hin zu den verschiedensten Fachmärkten. Neue Bauvorhaben namhafter Firmen zeugen von ständigen Bemühungen der Stadt, mit weiteren Gewerbeansiedlungen die Infrastruktur zu verbessern und vor allem Arbeitsplätze zu schaffen.

Stadterneuerung

Ab 1991 wurde der historische Stadtkern im Rahmen der Städtebauförderung gründlich saniert, das Stadtbild mit dem modernisierten Demmler-Rathaus hat sich stark verbessert. Auch wurde aus städtebaulichen Gründen mit der Beräumung des ehemaligen Molkereigeländes ein unansehnlicher Missstand nahe dem historischen Stadtkern beseitigt, es entstanden hier ein Einkaufsmarkt, kleinere Fachgeschäfte sowie attraktive Wohnungen. Die Erschließung und Instandsetzung der Straßen im südwestlichen Teil des Altstadtkerns verdienen große Aufmerksamkeit. Neben dem bereits fertiggestellten Wohngebiet am Schäferbruch befinden sich gegenwärtig drei größere Wohnkomplexe im Bau. Die Fertigstellung einer großen Sport- und Mehrzweckhalle im Herbst 1998 erweiterte das sportlich-kulturelle Freizeitangebot der Stadt.

Im Bereich der schulischen Einrichtungen kann die Kleinstadt Wittenburg sämtliche Schultypen aufweisen: Grundschule, Realschule mit Grund- und Hauptschulteil, eine Außenstelle der Allgemeinen Förderschule Hagenow und ein Gymnasium. Am Rande des Altstadtkerns, in fast zentraler Lage hat die Caritas ein Altenpflegeheim errichtet.

Jahr Einwohner
1496 500-600
1644 nur 100
1857 3.100
1920 3.359
1989 6.000
2000 5.161
2006 4.924
Kommunalwahl 2009
 %
40
30
20
10
0
37,1 %
33,0 %
15,1 %
10,4 %
4,4 %
SPD
CDU
Linke
NPD
Anmerkungen:
c Aktive BI Werbering

Das Wappen wurde am 10. April 1858 von Friedrich Franz II., Großherzog von Mecklenburg-Schwerin, festgelegt und unter der Nr. 127 der Wappenrolle von Mecklenburg-Vorpommern registriert.

Blasonierung: „In Silber ein gezinntes rotes Stadttor mit offenem Tor, einem hohem schlanken, spitzbedachten und mit goldenem Knauf versehenen Mittelturm sowie zwei fünffach gezinnten Seitentürmen mit je drei betagleuchteten runden Fenstern übereinander; auf denen zwei zugewendete, golden bewehrte und rot gezungte schwarze Lindwürmer sitzen.“

Das Wappen wurde 1997 von dem Barsbütteler Hans-Frieder Kühne neu gezeichnet und in der Tingierung der Lindwürmer überarbeitet.

Wittenburg unterhält seit dem 17. Juni 1990 eine Städtepartnerschaft zu Löningen in Niedersachsen.

  • Produktionsbetrieb für Tiefkühlprodukte der Dr. August Oetker Nahrungsmittel KG
  • SternMaid (Mischbetrieb für Lebensmittelzusatzstoffe) – ein Unternehmen der Stern-Wywiol Gruppe

Wittenburg liegt an der Bundesautobahn 24 Hamburg–Berlin.

Bis zum Jahr 2000 bestand darüber hinaus eine Schienenverbindung über die Kaiserbahn nach Hagenow beziehungsweise Zarrentin. Die Strecke wurde bis zum Ende des Zweiten Weltkrieges im Fernverkehr von Berlin nach Kiel bedient.

Die Kirche in Wittenburg
Das Rathaus in Wittenburg
Rathaus von der Großen Straße
Die Mühle

Die St.-Bartholomäus-Kirche wurde ab 1240 gebaut. Die frühgotische dreischiffige Hallenkirche besteht aus Backsteinen. Der Chor ist einschiffig. Die Kirche ist dem Apostel Bartholomäus geweiht. Der Turm wurde 1909 an der Westfassade vorgesetzt. Im Innern findet sich ein ursprünglich aus Hagenow stammender Schnitzaltar aus dem 15. Jahrhundert. Zur Inneneinrichtung der Kirche gehören weiter eine Bronzefünte von 1342, die hölzerne Kanzel von 1666 und zwei Pastorenbildnisse sowie ein Epitaph aus dem 17. und 18. Jahrhundert.

Der Heinrichstein ist eines der ältesten Kulturdenkmäler in Mecklenburg-Vorpommern, er stammt aus der 2. Hälfte des 12. Jahrhunderts. Er steht vor der St.-Bartholomäus-Kirche. Er wurde nach der Schlacht bei Waschow erschaffen.[3]

Das Rathaus wurde 1852 nach Plänen des Hofbaurats Georg Adolf Demmler errichtet. Am 8. Januar 1853 fand die feierliche Einweihung statt. Es gehört zu den bedeutenden Bauwerken aus der Zeit des Historismus und wurde ab 1996 umfassend saniert und im Inneren umgestaltet.

Die Altstadt wird von einem gut erhaltenen Wall umschlossen. Turm- und Mauerreste der ehemaligen Stadtbefestigung und die aus dem 13./14. Jahrhundert stammende historische Torturmruine auf dem Amtsberg wurden 1998 saniert.

  • Das Haus Markt 9 gehört zu den wenigen erhaltenen Fachwerkhäusern aus dem 17. Jahrhundert in Mecklenburg.
  • Das zweigeschossige Pfarrhaus am Kirchplatz wurde als Backsteinbau in den Formen der „Ludwigsluster Architektur“ im 19. Jahrhundert errichtet.
  • Das Fachwerkhaus Toitenwinkel 4 mit Schnitzereien von 1732 wurde 1995 saniert.
  • Das verputzte Haus in der Großen Straße 15 stammt aus der Gründerzeit.
  • Das Haus in der Großen Straße 13 ist ein gründerzeitlicher Ziegelbau.

Die Erdholländerwindmühle wurde 1890 auf dem Fundament einer abgebrannten Mühle errichtet.

Ursprünglich wurde das Niedersachsenhaus 1847 in Haar erbaut. Es ist erst im Jahr 1984 nach Wittenburg umgesetzt worden.

Das Flour Art Museum befindet sich im ehemaligen Wittenburger Amtsgericht. Das Gebäude wurde von einem privaten Investor mit mehr als einer halben Million Euro aufwendig saniert. Auf einer Fläche von 450 Quadratmetern wird die Bedeutung der Mehlsäcke und des Mehls für die menschliche Kultur dargestellt. Mittelpunkt ist die sogenannte „Sackothek“. Hier zeigt das Museum 1600 zum Teil kunstvoll gestaltete Mehlsäcke aus 110 Ländern. Das Museum wurde am 10. Juni 2008 durch Ministerpräsident Harald Ringstorff (SPD) eröffnet.

Die Baudenkmale der Stadt und ihrer Ortsteile sind in der Liste der Baudenkmale in Wittenburg aufgeführt.

  • Hauptartikel: alpincenter Hamburg-Wittenburg

Im Dezember 2006 eröffnete in Wittenburg der Indoor-Schneepark Europas unter dem Namen Snow Funpark. Die auf dem 33,8 Hektar großen Gelände befindliche Wintersporthalle hat eine Pistenfläche von 30.000 m², die Hauptpiste eine Pistenlänge von 330 Metern sowie eine Breite von 80 Metern. Das Gebäude ist bereits von der Autobahn 24 aus zu sehen. Die Skihalle stand seit dem 30. Juni 2008 unter Zwangsverwaltung, nachdem die Besucherzahlen im ersten Jahr mit 638.000 hinter den zunächst kalkulierten 730.000/900.000 pro Jahr zurückblieben. Seit dem 16. Oktober 2008 ist die Van der Valk-Gruppe Betreiber der Skihalle.

Jährlich findet im Frühjahr zum Beginn der Laufsaison der Wittenburger Mühlenlauf statt. Etwa 500 Läufer absolvieren dabei Distanzen über zwei, fünf und zehn Kilometer. In der Umgebung ist der Lauf beliebt in jeder Altersgruppe.

Franck-Gedenktafel
  • Johann von Preen († 1461), Bischof von Ratzeburg
  • Christian Ludwig Liscow (1701–1760), Satiriker
  • Karl Kraepelin (1817-1882), Sänger, Schauspieler, Rezitator
  • Hans Franck (1879–1964), Schriftsteller und Dramaturg
  • Robert Schlüter (1892–1980), Generalleutnant
  • Otto Vitense (1880–1948), Pädagoge und Landeshistoriker
  • Fritz Meyer-Scharffenberg (1912–1975), Schriftsteller
  • Ursula Kurz, geb. Koch (*1923) niederdeutsche Lyrikerin
  • Martin Eckermann (1930–2005), Regisseur und Schauspieler
  • Harald Ringstorff (* 1939), Politiker, Ministerpräsident von Mecklenburg-Vorpommern 1998–2008
  • Margret Seemann (* 1961), Politikerin
  • Walter Behrens (1911–2009), Turner
  1. Mecklenburg-Vorpommern Statistisches Amt – Bevölkerungsentwicklung der Kreise und Gemeinden 2010 (PDF; 522 kB) (Hilfe dazu)
  2. ISBN 3-8004-1215-2
  3. Webseite Amt Wittenburg


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.