Software für Internet in Heiligenhafen, Software für Internet in Heiligenhafen, Schleswig-Holstein

Software für Internet in Heiligenhafen, Software für Internet Region

Auch wenn Sie nicht aus Heiligenhafen kommen, wir sind Ihr Partner rund um das Thema Software Development, Softwareentwicklung, Software Engineering, Software Entwicklung, Software Entwickler, IT Beratung und IT Consulting, Software für Internet, Organisation Software, Qualitätsmanagement QM Quality Management ISO EN, Konstruktion CAD, Borland DBE, MDE Mobile Datenerfassung Software

 

 

Softwaretechnik

aus www.ifq.de, der freien Enzyklopädie

Die Softwaretechnik ist eine deutschsprachige Übersetzung des engl. Begriffs software engineering und beschäftigt sich mit der Herstellung bzw. Entwicklung von Software, der Organisation und Modellierung der zugehörigen Datenstrukturen und dem Betrieb von Softwaresystemen. Eine Definition von Helmut Balzert beschreibt das Gebiet als

Zielorientierte Bereitstellung und systematische Verwendung von Prinzipien, Methoden und Werkzeugen für die arbeitsteilige, ingenieurmäßige Entwicklung und Anwendung von umfangreichen Softwaresystemen.“ (Lit.: Balzert, S.36)

Softwaretechnik umfasst eine Vielzahl von Teilgebieten, die in ihrer Gesamtheit die Softwareentwicklung begleiten. Wichtig ist auch die experimentelle Untersuchung von Softwaretechnik, um ihren praktischen Nutzen zu messen und zu verbessern. Zur Beschreibung des „Standes der Technik“ des Fachgebiets gibt es verschiedene Ansätze, unter anderem den „Guide to the Software Engineering Body of Knowledge“ (SWEBOK) der IEEE Computer Society.

In erweitertem Sinn umfasst die Softwaretechnik – neben dem Entwickeln – auch das Betreiben der Software unter Nutzung der Informationstechnik.

Inhaltsverzeichnis

Aufgrund des hohen Aufwandes zur Erstellung und Wartung komplexer Software erfolgt die Entwicklung durch Softwareentwickler anhand eines strukturierten (Projekt-)Planes. Dieser Plan (das Vorgehensmodell) unterteilt den Entwicklungsprozess in überschaubare, zeitlich und inhaltlich begrenzte Phasen. Die Software wird somit Schritt für Schritt fertiggestellt. Die Phasen sind während des ganzen Entwicklungsprozesses eng miteinander verzahnt. In der Praxis werden auch Verfahren eingesetzt, welche die Mehrstufigkeit von Systemanalyse, Systemdesign/Konzept und anschließender Implementierung und Testen aufgeben, siehe z. B. unter Prototyping, Agile Softwareentwicklung.

Die Softwaretechnik beinhaltet den gesamten Prozess von der Identifizierung des Bedarfs bis hin zur Inbetriebnahme einer konkreten IT-Lösung, zum Teil auch darüber hinaus. Hauptgegenstand ist die Bereitstellung und Einführung einer Anwendungssoftware, teilweise zzgl. der benötigten Hardware und Netzwerke.

Die zu implementierende Software kann entweder eine Individualsoftware oder eine Kombination und Konfiguration von Standardsoftware sein.

Projekte werden oftmals von oder mit externen Dienstleistungsunternehmen, häufig aber auch als Eigenentwicklung geleistet. Dementsprechend vielfältig, auch abhängig von der Projektart, sind auch die Vorgehensweisen bei der Projektentwicklung: Von einer sehr strukturierten Herangehensweise, siehe Wasserfallmodell, über verschiedene Mischformen bis hin zu sehr flexiblen, offenen Methoden wie der Agilen Softwareentwicklung. Entsprechend wird auch zwischen Top-Down- und Bottom-Up-Ansätzen unterschieden.

Im Folgenden werden einige wichtige Aspekte und typische Stufen/Phasen der Projektentwicklung beschrieben, die in der Praxis mehr oder weniger ausgeprägt zum Tragen kommen.

Die Phasen und ihre Aufgabenstellungen sind in der folgenden Tabelle aufgeführt:

Kernprozesse

1. Planung

  • Anforderungserhebung
  • Lastenheft (Anforderungsdefinition)
  • Pflichtenheft (Mit technischen Ansätzen verfeinertes Lastenheft)
  • Aufwandsschätzung (z. B. mittels Function-Point-Verfahren oder COCOMO)
  • Vorgehensmodell

2. Analyse

  • Auswertung
  • Mock-up
  • Prozessanalyse / Prozessmodell
  • Systemanalyse
  • Strukturierte Analyse (SA)
  • Objektorientierte Analyse (OOA)

3. Entwurf

  • Softwarearchitektur
  • Strukturiertes Design (SD)
  • Objektorientiertes Design (OOD)
  • Unified Modeling Language (UML)
  • Fundamental Modeling Concepts (FMC)

4. Programmierung

  • Normierte Programmierung
  • Strukturierte Programmierung
  • Objektorientierte Programmierung (OOP)
  • Funktionale Programmierung

5. Validierung und Verifikation

  • Modultests (Low-Level-Test)
  • Integrationstests (Low-Level-Test)
  • Systemtests (High-Level-Test)
  • Akzeptanztests (High-Level-Test)

Unterstützungsprozesse

6. Anforderungsmanagement

7. Projektmanagement

  • Risikomanagement
  • Projektplanung
  • Projektverfolgung und -steuerung
  • Management von Lieferantenvereinbarungen

8. Qualitätsmanagement

  • Capability Maturity Model
  • Spice (Norm) (Software Process Improvement and Capability Determination)
  • Incident Management
  • Problem Management
  • Softwaremetrik (Messung von Softwareeigenschaften)
  • statische Analyse (Berechnung von Schwachstellen)
  • Softwareergonomie

9. Konfigurationsmanagement

  • Versionsverwaltung
  • Änderungsmanagement / Veränderungsmanagement
  • Release Management
  • Application Management (ITIL)

10. Softwareeinführung

11. Dokumentation

  • Technische Dokumentation
  • Softwaredokumentation
  • Software-Dokumentationswerkzeug
  • Betriebsdokumentation (Betreiber/Service)
  • Bedienungsanleitung (Anwender)
  • Geschäftsprozesse (Konzeption der Weiterentwicklung)
  • Verfahrensdokumentation (Beschreibung rechtlich relevanter Softwareprozesse)

Die oben genannten Teilschritte der Softwareentwicklung werden nicht zwangsläufig bei jedem Projekt komplett durchlaufen. Vielmehr werden einzelne Prozesse spezifisch für die jeweilige Anforderung gewählt. Dies ist aus Sicht der Kosten- und Verwaltungsreduzierung notwendig.

Der gesamte Prozess einer Projektentwicklung unterliegt meist einem mehr oder weniger stark ausgeprägten Projektmanagement. Im Falle der Realisierung durch einen IT-Dienstleister wird meist sowohl auf Auftraggeber- als auch auf Auftragnehmer-Seite ein jeweils eigenständiges Projektmanagement betrieben. Um Konflikte zwischen den beiden Projektleitern aufzulösen, wird dem übergeordnet oftmals noch ein aus dem Management von Auftraggeber und Auftragnehmer zusammengesetztes Kontrollgremium (Project Board) eingesetzt.

Typischerweise wird für größere Projekte auch ein größerer Projektmanagement-Aufwand betrieben, während mittlere oder kleinere Projekte häufig „nebenbei“ abgewickelt werden.

In allen Phasen der Projektentwicklung ist das IT-Consulting (oder auf Deutsch „Konzeptionen und Beratung“) durch externe Beraterfirmen üblich.

Das Qualitätsmanagement innerhalb des Projekts wird als Teilbereich des Projektmanagements verstanden.[1] Es umfasst die Teilgebiete:

  • Qualitätsplanung, das heißt Identifizierung der für das Projekt relevanten Qualitätskriterien und der Methoden, mit denen sie erfüllt werden können.
  • Qualitätssicherung, das heißt regelmäßige und regelgerechte Bewertung der Projektleistung, damit das Projekt die Qualitätsstandards erfüllt.
  • Qualitätslenkung, das heißt Überwachen der Projektergebnisse, um festzustellen, ob die Qualitätsstandards erfüllt werden, und um die Ursachen unzureichender Leistungen zu beseitigen.

Das Qualitätsmanagement im Projekt muss sowohl die Leistung des Projekts als auch die Qualität des Projektprodukts ansprechen. Modernes Qualitätsmanagement und modernes Produktmanagement ergänzen sich. Beide Disziplinen erkennen die Bedeutung von

  • Kundenzufriedenheit
  • Prävention geht vor Überprüfung
  • Managementverantwortung

an. Qualitätsverbesserungsprogramme, die von der Trägerorganisation durchgeführt werden, beispielsweise nach TQM oder nach ISO 9000, können integriert werden, um die Qualität des Projekts und die des Produkts zu verbessern.[1]

Magisches Dreieck

Wie generell im Projektmanagement ist dem permanenten Zielkonflikt zwischen Qualität, Kosten und Zeit Rechnung zu tragen.[2]. Speziell in Softwareprojekten steht die Projektleitung häufig unter hohem Termindruck und ist einem besonders hohen Risiko ausgesetzt, die Qualität zu vernachlässigen.[3]

Aufgrund der Komplexität von Informationssystemen sind „absolute“ Sicherheit bzw. Qualität nicht ökonomisch realisierbar. Daher werden zur Kategorisierung und Priorisierung häufig Methoden des Risikomanagements eingesetzt, um für das jeweilige Projekt ein adäquates Maß an Systemsicherheit und -qualität zu gewährleisten.

Aspekte des Risikomanagements sollten über den gesamten System-Lebenszyklus, also beginnend mit dem Konzept, über die Entwicklung oder Programmierung, Implementierung und Konfiguration und während des Betriebes bis hin zur Stilllegung des Systems berücksichtigt werden.

Im Zusammenhang mit der Projektentwicklung ist hier die Systemanalyse zur Projektvorbereitung gemeint. Gegenstand ist die inhaltliche Erfassung der Anforderungen durch Befragung künftiger Anwender sowie die systematische Untersuchung weiterer sachlicher und technischer Anforderungen und Randbedingungen (Schnittstellen zu Drittsystemen, gesetzliche Anforderungen u.dgl.). Ergebnis ist meist ein Fachkonzept, oftmals auch gleich ein Lastenheft.

Ein Pflichtenheft enthält sämtliche Funktionen und Anforderungen an ein Programm. Darin wird festgelegt, welche Funktionen verlangt sind und was diese genau tun. Anhand dieser Übersicht werden die grundlegenden technischen Entwurfsentscheidungen getroffen, und daraus wird die Systemarchitektur abgeleitet. Im Falle einer Beauftragung eines Dienstleistungsunternehmens ist das Pflichtenheft die vertragliche Grundlage für die vereinbarten Leistungen. Deshalb ist die Vollständigkeit und Richtigkeit der darin getroffenen Festlegungen und Anforderungen von besonderer Bedeutung für den Auftraggeber.

Ein Systemanalytiker bzw. -designer, bei kleineren Projekten auch der Programmierer, legt anhand des Pflichtenhefts die Programmarchitektur fest. Soweit Standardsoftwareprodukte zum Einsatz kommen, erfolgt in dieser Phase auch eine Spezifikation der geplanten Produkteinbindung bzw. -anpassung. Für neu zu entwickelnde Software erfolgt der Entwurf des Datenmodells und der einzelnen Funktionen und Algorithmen bzw. der Objekt- und Klassenstruktur. Falls bereits vorhandene Software angepasst (adaptiert) werden muss, so wird in dieser Phase festgelegt, welche Veränderungen und Erweiterungen erforderlich sind. Das Ergebnis des Systemdesigns wird auch DV-Konzept genannt.

In der Implementierungsphase wird die zuvor konzipierte Anwendungslösung technisch realisiert, indem Softwareprodukte konfiguriert, vorhandene Software angepasst oder Programme bzw. Programmteile vollständig neu erstellt werden.

Eine Neuerstellung von Software erfolgt meist durch Programmierung, d. h. die einzelnen Funktionen, Objekte, Klassen u.s.w. werden in einer Programmiersprache mit Hilfe einer Integrierten Entwicklungsumgebung codiert.

Die Software wird im Softwaretest in zweierlei Hinsicht getestet, zum einen

  • technisch, d. h. auf eine korrekte Umsetzung des DV-Konzepts und auf Programmfehler, und zum anderen
  • inhaltlich, d. h. auf Vollständigkeit bezüglich des Pflichtenhefts und Eignung für den vorgesehenen Zweck.

Während der Systemtest eine alleinige Angelegenheit des Auftragnehmers ist, erfolgt der Verfahrenstest meist in Zusammenarbeit mit den Endanwendern des Auftraggebers.

Es gilt in der Softwareentwicklung als normal, dass Programme fehlerhaft sind. Gelegentlich müssen sogar ganze Teile vollständig neu umgesetzt, also neu programmiert werden. Da in komplexeren Applikationen nicht mit Sicherheit ausgeschlossen werden kann, dass geänderte Programmteile nicht etwa andere Programmfunktionen beeinflussen können (Nebeneffekte), sollte nach der Fehlerbeseitigung ein erneuter vollständiger Test des Gesamtsystems erfolgen. Bis zur endgültigen Freigabe der Software sind meist mehrere Test- und Fehlerbeseitigungszyklen (iteratives Vorgehen) erforderlich.

Die fertiggestellte Software nebst eventuell erforderlicher Standardsoftwareprodukte, Hardware u. ä. wird sodann im Zuge der Installation auf den Computersystemen des Auftraggebers oder des Betreibers (eines Application Service Providers) aufgespielt und betriebsbereit gemacht. Hierbei wird oftmals zwischen parallelen „Produktiv“-, „Test“-, „Schulungs“- und „Entwicklungs“-Installationen unterschieden.

Je nach technischer Plattform erfolgt die Installation auf Zentralrechnern (Server) oder auf den Arbeitsplatzrechnern oder beides. Bei Datenbankanwendungen erfolgt ggf. noch ein Tuning der Datenbank. In einigen Fällen erfolgt noch eine Migration aus älteren Anwendungslösungen.

Bei größeren Projekten erfolgt oftmals zunächst nur eine Installation auf einem Testsystem bzw. bei wenigen Pilot-Anwendern. Die nachfolgende Ausweitung (Installation und Inbetriebnahme) auf weitere Standorte nennt man Rollout.

Wesentlicher Teil des Projekts ist die Einführungsunterstützung, insbesondere in Form von Schulung bzw. Einweisung der Endanwender, Power User und Administratoren.

Nach der Inbetriebnahme einer Softwarelösung ist eine kontinuierliche Weiterbetreuung erforderlich und üblich. Diese umfasst sowohl eine Unterstützung der Anwender z. B. per Hotline im laufenden Betrieb als auch Erweiterungen der Software bei Bedarf. Bei externer Softwareerstellung / Projektabwicklung wird beides in einem Support-Vertrag geregelt.

Dabei wird zwischen einem First-level-Support und einem Second-level-Support unterschieden. Der First-level Support (auch Helpdesk) ist erste Anlaufstelle für alle eingehenden Unterstützungsfragen und nimmt alle Problemmeldungen entgegen. Er leitet aber nur schwerwiegende Probleme an den Second-level-Support, bei Standardsoftware z. B. beim Produkthersteller, weiter.

Die laufende Anpassung der Software an sich ändernde Anforderungen oder Umgebungsbedingungen, z. B. an neue Versionen verwendeter Standardsoftware, wird als „Softwarepflege“ bezeichnet. Größere Veränderungen werden über eigene Wartungsprojekte bearbeitet, kleinere Anpassungen häufig als Wartungsaufgaben mit einfacheren Prozessregeln. Das Management des nachträglichen Einbringens von Änderungen in ein laufendes System nennt man Veränderungsmanagement.

  • ISBN 3-8274-0480-0.
  • ISBN 3-89864-268-2.
  • ISBN 3-446-22429-7.
  • ISBN 0-321-21026-3.
  • Thomas Grechenig, Mario Bernhart, Roland Breiteneder, Karin Kappel: Softwaretechnik – Mit Fallbeispielen aus realen Projekten Pearson Studium, München 2009, ISBN 3-86894-007-3.
  1. ISBN 978-1-930699-21-2, S. 95–103
  2. Kessler, Heinrich; Winkelhofer, Georg: Projektmanagement. 4. Auflage. Heidelberg 2004, Springer. S. 55–56
  3. Wendt, Dierk (Sprecher der Arbeitsgruppe): Klassische Fehler in der Software-Entwicklung, TU Ilmenau, Version vom 6. Oktober 2005, abgerufen am 9. Februar 2011


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Software

aus www.ifq.de, der freien Enzyklopädie

Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen sind unter Software (Begriffsklärung) aufgeführt.

Software ['s?f(t)w??] (dt. = weiche Ware [von] soft = leicht veränderbare Komponenten [...], Komplement zu 'Hardware' für die physischen Komponenten)[1] ist ein Sammelbegriff für ausführbare Programme und die zugehörigen Daten.[2] Sie dient dazu, Aufgaben zu erledigen, indem sie von einem Prozessor ausgewertet wird und so softwaregesteuerte Geräte in ihrer Arbeit beeinflusst.[3]

In diesem Sinne wurde der Begriff erstmals 1958 von John W. Tukey benutzt.[4] Durch das softwaregesteuerte Arbeitsprinzip kann eine starre Hardware individuell arbeiten.[3] Es wird heutzutage nicht nur in klassischen Computern angewendet, sondern auch in vielen anderen Systemen, wie beispielsweise in Waschmaschinen, Handys, Navigationssystemen und modernen Fernsehgeräten.

Inhaltsverzeichnis

Als Terminus wird 'Software' in zwei typischen Entgegensetzungen gebraucht:

Eine uneingeschränkte Definition beschreibt Software als 'Gegenstück zu Hardware', wobei Software hier jede Art von digitalen Daten umfasst, die auf einer Hardware gespeichert sein können,[5] von der Firmware (z. B. dem BIOS), dem Betriebssystem, den Anwendungsprogrammen bis hin zu allen (möglichen) Dateien eines softwaregesteuerten Gerätes.

Die physischen Bestandteile eines Computersystems (die Geräte selbst, zuzüglich Kabel, etc.) werden unter dem Begriff 'Hardware' zusammengefasst. Ein Datenträger ist Teil der Hardware. Auf ihm wird Software zu Informationszwecken gespeichert. Sie ist dafür gedacht, von einem Prozessor interpretiert zu werden: Sie beschreibt in Form von Anweisungen, was der Prozessor tun soll (z. B. "x + y") und konkretisiert darüber hinaus den genauen Verlauf der Abarbeitung anhand weiterer Daten (z. B. "5 + 3"). In diesem vollen Umfang wird Software von einem Prozessor interpretiert, weshalb in der Veranschaulichung von Software als Gegenstück zur Hardware der Programmcode und die zur Verarbeitung bestimmten Daten zusammen als Software betrachtet werden.

Je nach Zusammenhang ist bei der Entgegensetzung eine oder mehrere der folgenden Bedeutungen gemeint:

  • Leicht veränderbare Komponente (Software) vs. schwer veränderbare Komponente (Hardware) in einem Computerdesign[1]
  • Universelle Maschine (Hardware) vs. Instruktionskode (Software)
  • Nicht-greifbar im Sinne von Funktionsbestandteilen eines Computersystems, die sich „nicht anfassen lassen[6] (Software) im Gegensatz zu den greifbaren Komponenten (Hardware). Software ließe sich über eine Telefonleitung übertragen, Hardware dagegen nicht.

Die Gegensätze sind in der englischsprachigen Begriffprägung (soft=weich, hard=hart) beabsichtigt.

Im allgemeinen Sprachgebrauch und in der Literatur zu Softwaretechnik wird die Definition von 'Software' eingeschränkt auf Computerprogramme und die mit ihnen eng verbundenen Ressourcen, wie z. B. Konfigurationsdaten neben Icons und Schriftarten, die zum Betrieb notwendig sind.[7] Die zur Verarbeitung bestimmten Daten (z. B. digitalisierte Musikstücke) werden hier meist nicht als Software verstanden.[8] Nach dieser Definition wird Software auch als Softwaresystem oder Softwareprodukt bezeichnet,[9] das als Beiwerk zusätzlich Bestandteile wie z. B. die Softwaredokumentation in der digitalen oder gedruckten Form eines Handbuchs enthalten kann.[10]

Auch die Begriffe Programm und Daten können einander entgegensetzt gebraucht werden, wobei 'Programm' dann die Funktion des Programms im Sinne als ausführende Instanz meint, 'Daten' das Bearbeitete.

Diese Rollen können ggfls. je nach Lage der Dinge vertauscht werden. Ein Quellprogramm, das von einem Übersetzer in ein Maschinenprogramm umgewandelt wird, tritt wie das erzeugte Binärprogramm als Daten auf. Ähnlich wie Hardware ein (als Daten aufgefasstes) Binärprogramm in dessen Funktion (Aktivität) umwandelt, kann dies auch ein Interpreter mit einem Quellprogramm oder ein Emulator mit dem Binärprogramm.

Dieser Zusammenhang, dass ein Programm sowohl als Daten als auch als Funktion auftreten kann, ist zentral in verschieden Disziplinen der Informatik, darunter die theoretische Informatik (u. a. Rekursionstheorie, Automatentheorie, Domaintheorie), und die technische Informatik (z. B. Von-Neumann-Architektur).

In den 1950er Jahren waren Software und Hardware noch verbunden und als Einheit wahrgenommen. Die Software war dabei Teil der Hardware und wurde als Programmcode bezeichnet. 1958 prägte der Statistiker John W. Tukey den Begriff Software erstmalig.[4]

Später sorgte dann die Entscheidung der US-Regierung in den 1970er Jahren für eine Neuheit, dass IBM auf Rechnungen Software und Hardware getrennt zu berechnen und aufzuführen habe. Dies entsprach einer Anerkennung der Einzelhaftigkeit von Software von offizieller Seite und einer endgültigen Aufspaltung von Hardware und Software bzw. einer Abgrenzung der Software von der Hardware.

Dieser Entwicklung folgte dann in den 1970er Jahren die Gründung von Firmen, die erstmalig nur mit Software handelten und nur Software und keine Hardware entwickelten. Zu diesen Firmen gehörte in den USA Microsoft und in Deutschland SAP. Die Existenz solcher Firmen erscheint im 21. Jahrhundert als Selbstverständlichkeit, stellte damals jedoch eine erhebliche Neuentwicklung dar.

Der logische Übergang zwischen Hard- und Software lässt sich an den ersten Spielhallenspielen verdeutlichen, wie das Spiel Breakout. Einstmals bestand deren komplettes Programm (der Ablauf, die Logik) bildlich gesehen aus „vorverdrahteten Schalttafeln“.[11] Sie verwendeten keinen Prozessor. Erst später, als solche Spiele für Computer programmiert wurden, und man anfing bei prozessorgesteuerten Geräten zwischen den Begriffen 'Hardware' und 'Software' zu unterscheiden, gab es diese Spiele als Software. Das Spiel bestand nicht mehr aus „vorverdrahteten Schalttafeln“, sondern aus Anweisungen für einen Prozessor inklusive der für die Abarbeitung notwendigen weiteren Informationen, die gemeinsam auf einem Datenträger hinterlegt wurden.

Software ist immateriell[6] und besteht aus den Sprachen und Notationen, in denen sie formuliert ist.[3] Software kann zwar auf bestimmten Medien gespeichert, gedruckt, angezeigt oder transportiert werden. Diese sind aber nicht die Software, sondern enthalten sie nur.

Auch physisch gesehen können sogar die Bits, die die Software abbilden, immateriell sein. So weisen Datenträger als der Teil der Hardware eine bestimmte Beschaffenheit auf. In einem für Computer üblichen Binärsystem manifestiert sich die gemeinte Beschaffenheit in Form von gesetzten oder gelöschten Bits (den digitalen Daten), die darauf gespeichert werden. Elektronisch gesetzte Bits haben für sich keine Substanz und lassen sich somit „nicht anfassen“. Zur Veranschaulichung lässt sich ein Computer vorstellen, auf dem eine andere Variante des Betriebssystems installiert wird. Dafür muss die Hardware nicht erweitert oder ausgetauscht werden, was bedeutet, dass das Gerät äußerlich unverändert wirkt. Tatsächlich wird nur die Eigenschaft der Datenträger verändert; es werden Bits elektronisch gesetzt beziehungsweise gelöscht. Dennoch arbeitet das System dank der aktualisierten Software anders als zuvor, weil die gesetzten (geänderten) Eigenschaften vom Prozessor interpretiert werden.

Es ist zwar vorstellbar, Bits sichtbar und greifbar auf einem Trägermedium zu hinterlegen, doch grundsätzlich ist 'Software' ein abstrakter, von Trägermedien unabhängiger Begriff. Das trifft für den Gattungsbegriff ohnehin zu, aber auch für konkrete Ausprägungen wie ein bestimmtes Anwendungsprogramm.[12] Als Analogie dazu ist es für den Begriff 'Oper' oder 'Zauberflöte' nicht begriffsbestimmend, ob sie im Theater aufgeführt, über Radio/TV übertragen oder als CD verkauft oder gehört wird, ob sie im Opernführer beschrieben oder in der Partitur aufgezeichnet ist.

Innerhalb der Softwaretechnik wird eine einheitliche solide, konsistente und systematische Begriffsbildung durch eine hohe Innovationsgeschwindigkeit und Praxisnähe behindert.[13] So wird je nach gegebenem Zusammenhang unter 'Software' Unterschiedliches verstanden, zum Beispiel:

  • Im Zusammenhang mit der Ausführung auf einem Computer wird unter Software primär alles verstanden, was auf dem Rechner ausgeführt werden kann (das Programm im engeren Sinn, bestehend aus Befehlen und Datendefinitionen). Hinzu kommen die „mit [den Programmen] eng verbundenen Ressourcen, die zum Betrieb der Software zwingend erforderlich sind“.[14] Dies sind zum Beispiel Konfigurationsdateien, Schriftart-Dateien, Lookup-Tabellen, Datenstrukturen für Datenbanken und Datenbestände.
  • In engstem Sinn wäre unter 'Software' nur von der Hardware ausführbarer Maschinencode zu verstehen. Jedoch fällt darunter auch alles, was durch beliebige 'interpretierende Systeme', die Teil der Systemsoftware sind, ausgeführt werden kann, wie das bei Verwendung höherer Programmiersprachen und Entwicklungsumgebungen nahezu immer der Fall ist.[3]
  • Weiterhin können mit 'Software' unterschiedliche Mengen gemeint sein: Im engeren Sinn ist einzelnes Programm 'Software'. Jedoch wird etwa eine aus einer Vielzahl von Einzelprogrammen bestehende Buchhaltungsanwendung ebenfalls 'Software' genannt. Ebenso ein (nicht selbstständig lauffähiges) Unterprogramm, alle Anwendungen eines Unternehmens als Gesamtheit, die zum Betrieb der Programme gehörenden Daten(bank)strukturen und die verschiedensten Komponenten der Systemsoftware inkl. dem Betriebssystem.[15]
  • Im Zusammenhang mit dem Urheberrechtsschutz für Software gilt i. d. R. der 'Quellcode' als Schutzgegenstand.[16]
  • Im Kontext Erwerb von Software (als 'Softwareprodukt') gehört auch die Dokumentation zur 'Software'.[17]
  • Im weitesten Sinn und aus der Entstehungsgeschichte abgeleitet, ist Software alles, was nicht Hardware ist.[3] In diesem Zusammenhang gilt zum Beispiel auch jede Form von Daten als Software.

Der Begriff 'Software' wird also sowohl für konkrete einzelne Aspekte benutzt, als Gattungsbegriff für unterschiedliche Arten von Software und als Sammelbegriff für beliebige Mengen.

Software kann aus vielen unterschiedlichen Gesichtspunkten betrachtet werden, zum Beispiel:

Softwar: Typisierung, Zusammenhänge, Überblick

„Zwischen Hard- und Software besteht eine gewisse Aufgabenverteilung: Die Hardware garantiert [...] Quantität, also Tempo und Speicherkapazität, die Software sorgt für [...] die Abbildung der Anforderungen [...] auf die strukturell primitive Hardware“.[3]

Obwohl dem Begriff 'Software' teilweise Attribute wie Flexibilität, Individualität, Leistungsfähigkeit etc. zugeschrieben werden, wird letztlich alles, was der Computer 'tatsächlich tut', nicht von der Software, sondern ausschließlich durch die Hardware ausgeführt. Software 'beschreibt' lediglich, was getan werden soll und in welcher Form dies geschieht.

Dazu wird auf unterster Ebene der Maschinencode der Software über das Betriebssystem (d. h. ebenfalls durch dessen Maschienbefehle) in den Hauptspeicher des Computers geladen und dem Rechenwerk Schritt für Schritt (siehe Befehlszähler) zur Ausführung zugeführt.

Der Maschinencode muss hierzu in einer Form/Struktur vorliegen, die von der Hardware über deren darin implementierte Schnittstelle interpretiert und ausgeführt werden kann.[18] Inhalt und Struktur der Befehle zeigen an, was zu tun ist, welche Datenbereiche im Hauptspeicher dabei benutzt oder verändert werden sollen (über die im Befehlscode enthaltenen Registerangaben) und ggf. an welcher Stelle das Programm fortzusetzen ist.

Dieses Arbeitsprinzip gilt für jede Art von Software, auch wenn sie z. B. von Interpretern ausgeführt wird: Diese sind ebenfalls Software, die über ihren Maschinencode an der Hardwareschnittstelle wie beschrieben ausgeführt wird, was auch für Compiler und jede andere Systemsoftware gilt. Bei der Ausführung wirken also viele Schichten zusammen und führen als Gesamtheit zu Zustandsänderungen in der Hardware bzw. final zu den vorgesehenen Ergebnissen, etwa der Ausgabe einer Druckzeile, einem Datenzugriff oder der Anzeige eines Feldinhalts am Bildschirm. Bei in höheren Programmiersprachen entwickelten Anwendungen können so schon für relativ einfache Funktionen (wie Lesen aus der Datenbank) oft Hunderttausende oder Millionen von Maschinenbefehlen durchlaufen werden.

Das in modernen Computern mögliche parallele Ausführen mehrerer Programme/Prozesse wird im Wesentlichen durch das Betriebssystem bewirkt, das bei bestimmten Ereignissen den Wechsel von einer zur anderen 'Task einleitet und verwaltet. Siehe auch Multitasking.

Im systematischen Zusammenwirken vieler Komponenten, das nur unter Anwendung klar definierter Schnittstellen möglich ist, „gehört Software also zu den komplexesten Artefakten, die Menschen bislang geschaffen haben“.[3]

Hauptartikel: Softwaretechnik
  • Software wird unter Nutzung bestimmter Verfahren, Methoden und 'Werkzeuge' entwickelt. Dabei werden unterschiedliche Entwicklungsstadien durchlaufen, in denen jeweils unterschiedliche Zwischenstände der Software entstehen: Analysetätigkeiten (zahlreiche Entwicklungsdokumente) > Programmierung (Quellcode) > im Betrieb (Maschinencode oder ausführbarer Code). Im engeren Sinn der Ausführung auf dem Computer gilt lediglich Letzteres als 'Software'. Siehe auch Softwareentwicklung.
  • In diesem Zusammenhang ist Software Bearbeitungsgegenstand von Systemprogrammen: Wenn z. B. ein Compiler den Quellcode eines Programms liest, verarbeitet und einen Maschinen- oder Zwischencode erzeugt, so sind das aus dessen Sicht 'Daten'.
  • Einmal erzeugte Software kann mit verhältnismäßig geringen Kosten vervielfältigt werden, die meist durch Datenträger, Werbung und dem Herstellen von Verpackung und zu Papier gebrachten Dokumentationen anfallen.
  • Software verschleißt nicht durch Nutzung, unterliegt jedoch mit der Zeit der Softwarealterung.
  • Software ist meist austauschbar, fähig zur Aktualisierung, korrigierbar und erweiterbar, insbesondere dann, wenn bestehende Richtlinien eingehalten werden und der Quelltext verfügbar ist.
  • Software tendiert dazu, umso mehr Fehler zu enthalten, je komplexer sie ist. Fehler werden in aktualisierten Softwareversionen oder mithilfe eines Patches und i.d.R. nach Durchführung von Softwaretests behoben. Softwarefehler bezeichnet man auch als Bugs.
  • Weil Software unter Einsatz vieler unterschiedlicher Programmiersprachen und in vielen unterschiedlichen Betriebssystemen und Systemumgebungen entwickelt werden kann, sind Softwarestandards erforderlich, um Informationen system- und unternehmensübergreifend 'verstehbar' und austauschbar zu machen. Siehe auch Elektronischer Datenaustausch (Beispiele), Programmierstil.
Hauptartikel: Software-Akquisition

In der Entscheidung zur Anschaffung von Software lässt sich i. W. der Einsatz von Standardsoftware oder die eigene Herstellung (Individualsoftware) unterscheiden. Besonders im betrieblichen Umfeld zieht diese Entscheidung häufig hohe Kosten nach sich. Auch können solche Entscheidungen Grundlage zur Umsetzung der Unternehmensstrategie sein oder sollen Unternehmensprozesse maßgeblich verbessern. Zur Vermeidung von Fehlinvestitionen sollte der Anschaffung ein systematischer Entscheidungsprozess vorausgehen.

Hauptartikel: IT-Service-Management
  • Der Einsatz von Software erfordert je nach Einsatzbereich ein gewisses Maß an Organisation, um die zusammengehörenden Teile richtig einzusetzen und durch neue Versionen abzulösen (zum Beispiel in größeren Unternehmen im Releasemanagement).
  • Mitunter kann Software vorkonfiguriert werden, um so eine Neuinstallation zu beschleunigen und um Fehler bei der Konfiguration zu minimieren.

Im Wesentlichen für betriebliche Anwendungssoftware geltend kann Software aus (betriebs-)wirtschaftlicher Sicht als 'im Voraus geleistete geistige Arbeit', also als Investition betrachtet werden. Zum Beispiel erarbeiten die Programmautoren ein Lösungsverfahren für die korrekte Trennung aller deutschen Wörter in einem Textverarbeitungsprogramm. Damit ist im Voraus, also bevor diese Tätigkeit tatsächlich anfällt, schon für alle Schreiber, die mit diesem Textverarbeitungsprogramm arbeiten, die geistige Arbeit „korrektes Trennen deutscher Wörter“ geleistet. Dabei wird die Eigenschaft von Computern genutzt, auf sie verlagerte Aufgaben erheblich schneller und zuverlässiger ausführen zu können als dies bisher Menschen möglich war. Besonders auch in der Softwareentwicklung wird intensiv auf „im Voraus“ entwickelte Algorithmen und Codeteile zurückgegriffen werden ('Software-Wiederverwendung').

Ein ähnlicher Zusammenhang wird in der Arbeitssoziologie gesehen: Derartige softwarebasierte Maßnahmen sind geeignet, Arbeitsinhalte und -Abläufe erheblich zu verändern. Die Bandbreite reicht dabei vom Bereitstellen einfacher Hilfsmittel (etwa zur Summierung oder Durchschnittsermittlung) bis hin zur völligen Umgestaltung von Prozessen (durch Konzentration früher getrennter oder durch Zerlegung früher zentralisierter Arbeitsabläufe) – oder gar bis zu deren vollständigen Ersatz durch IT-Lösungen. Brödner et al nennen dies in[19] »materialisierte« Kopfarbeit. Siehe auch Rationalisierung, Optimierung, Taylorismus.

Software lässt sich nach verschiedenen Kriterien unterscheiden.

Unterteilung nach der Nähe zur Hardware beziehungsweise Anwender
  • Systemsoftware, die für grundlegende Funktionen des Computers erforderlich ist. Hierzu zählen insbesondere das Betriebssystem sowie Gerätetreiber.
  • systemnahe Software, der Bereich zwischen Betriebssystem und Anwendungssoftware z. B. Dienstprogramme, Datenbank-Verwaltungswerkzeuge, Programmierwerkzeuge und Middleware.
  • Anwendungssoftware, die den Benutzer bei der Ausführung seiner Aufgaben unterstützt und ihm dadurch erst den eigentlichen, unmittelbaren Nutzen stiftet
Unterteilung nach Art der Herstellung
  • Standardsoftware: Wird von einem Softwareanbieter erstellt, und kann von Kunden erworben werden
  • Individualsoftware: für einen (oder von einem) einzelnen Anwender individuell erstellt

Rechtlich wird beim Erwerb von Software zwischen Individualsoftware und Standardsoftware unterschieden: Für Individualsoftware wird ein Werkvertrag bzw. Werklieferungsvertrag abgeschlossen, der Erwerb von Standardsoftware gilt als Sachkauf.

Siehe auch: Seriennummer, Spyware, Langzeitarchivierung, Gebraucht-Software

Software nach der Art der Einbettung
  • nicht eingebettete Software (Software, die installiert wird)
  • fest in einem Gerät zu dessen Steuerung untergebrachte Software (z. B. in einem ROM), bezeichnet man als Firmware oder auch Eingebettete Software.
Einstufung nach Nutzungsrecht (Lizenz)
  • Adware
  • Beerware
  • Cardware (auch Postcardware)
  • Careware
  • Crippleware
  • Donationware
  • Freeware
  • Nagware
  • Shareware
  • Freie Software
Unterteilung nach Quellcode-Veränderbarkeit
  • Freie Software
  • Open Source
  • Proprietäre Software
Einstufung nach Verfügbarkeit
  • Abandonware
  • Vaporware
Andere Unterteilungen
  • Portable Software
  • Bananenware (unausgereifte Software)
  • Schlangenöl (Programm ohne echte Funktion, wird aber als Wundermittel angepriesen)
  • Shovelware (Sammlung von Software, wobei die Quantität zählt)
  • Riskware
  • Bloatware (mit Funktionen ohne synergetischen Nutzen überladene Software)

Die Verbreitung und Nutzung von Software unterliegt dem Urheberrecht. Es gibt in diesem Zusammenhang mehrere typische Überlassungsmodelle:

Verkauf
Der vollständige Verkauf von Software, inklusive der Überlassung von Weiterverbreitungsrechten, kommt praktisch nur zwischen Unternehmen vor, in der Regel im Rahmen von Auftragsprogrammierung oder beim Verkauf eines Softwareentwicklungsunternehmens.
Nutzungsrecht
Bei der meisten Software, die zum Beispiel für PCs „gekauft“ werden kann, wird in Wirklichkeit nur ein Nutzungsrecht überlassen. Dieses Modell ist auch bei der Auftragsprogrammierung üblich, bei der ein Unternehmen ein Programm für den Eigengebrauch eines anderen Unternehmens speziell entwickelt. Bei Freeware ist dieses Recht kostenlos, was nicht mit freier Software verwechselt werden darf.
Software as a Service
Die Software wird bei einem Dienstleister gehostet, die eigentliche Nutzung der Software kann entweder pro Zeitraum oder pro Nutzungseinheit berechnet werden und kann oft mit einem einfachen PC und z. B. per Webbrowser genutzt werden.
Freie Software/Open Source/GPL
Freie Software darf von jedem genutzt, beliebig verändert und weiterverbreitet werden. Oft unterliegt dieses Recht gewissen Einschränkungen, wie zum Beispiel der Nennung des Autors oder die Verpflichtung, veränderte Versionen unter die gleiche Lizenz zu stellen (GPL). Software, die nicht zu dieser Gruppe zählt, wird proprietär genannt.

Zwischen den oben genannten Hauptformen der Softwareverbreitung gibt es zahlreiche Zwischen- und Mischstufen.

Siehe auch: Lizenzen der freien Software, Lizenzmanagement

Hauptartikel: Freie Software und Open Source

‚Freie Software’ ist eine soziale Bewegung, die unfreie Software als gesellschaftliches Problem begreift.[20] Wobei „frei“ hier nicht „kostenlos“ bedeutet (‚Freie Software’ ist nicht dasselbe wie ‚Freeware’), sondern die Freiheiten für die Gesellschaft meint, die ein derart lizenziertes (auch kommerzielles) Produkt bietet. In den Augen der von Richard Stallman 1985 gegründeten Free Software Foundation (FSF) ist die Entscheidung für oder gegen freie Software deshalb primär eine ethische und soziale Entscheidung.

Dagegen begreift die 1998 gegründete Open Source Initiative (OSI) quelloffene Software als bloßes Entwicklungsmodell, wobei die Frage, ob Software quelloffen sein sollte, dort eine rein praktische und keine ethische Frage ist. Die FSF wirft der OSI daher eine Ablenkung von den wesentlichen Punkten vor.[21] Eric S. Raymond hat den Begriff ‚Open Source’ in der Annahme eingeführt, dass das unpopuläre Thema ‚Freiheit’ Geldgeber für solche Projekte abschrecken könne.

Auch wenn es sich heute um zwei unterschiedliche Bewegungen mit unterschiedlichen Ansichten und Zielen handelt, verbindet sie die gemeinsame Wertschätzung für quelloffenen Code, was in zahlreichen Projekten mündet, in denen sie zusammenarbeiten.

Hauptartikel: Softwaretechnik

Die Entwicklung von Software ist ein komplexer Vorgang. Dieser wird durch die Softwaretechnik, einem Teilgebiet der Informatik, systematisiert. Hier wird die Erstellung der Software schrittweise in einem Prozess von der Analyse über die Softwaremodellierung bis hin zum Testen als wiederholbarer Prozess beschrieben.

In aller Regel wird die Software nach der Entwicklung mehrfach angepasst und erweitert. Der Software-Lebenszyklus kann durchaus mehrere Jahre betragen.

  • Softwareunternehmen
  • Softwarekrise
  • Softwarequalität, Softwarequalität nach ISO
  • John W. Tukey: The Teaching of Concrete Mathematics. In: The American Mathematical Monthly. Vol. 65, no. 1 (Jan. 1958), pp 1–9. (Erstmalige Verwendung des Begriffs Software im heutigen Sinn)
  • F. R. Shapiro: Origin of the term software: Evidence from the JSTOR electronic journal archive. In: IEEE Annals of the History of Computing. 22 (April–June 2000), 69.
  • Sebastian von Engelhardt: Die ökonomischen Eigenschaften von Software. In: Jenaer Schriften zur Wirtschaftswissenschaft. 14/2006, Friedrich-Schiller-Universität Jena, Wirtschaftswissenschaftliche Fakultät, ISSN 1611-1311.
  1. ISBN 3-411-05232-5
  2. ISBN 978-3-409-12725-7
  3. [1]
  4. a b linfo.org – Software Definition, 1958, Januar-Ausgabe des American Mathematical Monthly (Titel: The Teaching of Concrete Mathematics). Tukey schreibt: „Today the "software" comprising the carefully planned interpretive routines, compilers, and other aspects of automative programming are at least as important to the modern electronic calculator as its "hardware" of tubes, transistors, wires, tapes and the like.“
  5. linfo.org – Software Definition, Zitat: „[…] In a broader sense it can also refer to all information (i.e., both programs and data) in electronic form, and it can provide a distinction from hardware, which refers to media and systems on which software can exist and be used […]“
  6. ISBN 978-3-8274-1705-3, 2009, 3. Auflage, S. 9: „Software ist ein immaterielles Produkt. Software kann man nicht anfassen und nicht sehen.“
  7. http://www.wissen.de/wde/generator/wissen/ressorts/technik/computer/index,page=1207964.html
  8. Auszug aus lexikon.meyer.de: „[...] Im allgemeinen Sprachgebrauch wird die Bezeichnung Software meist nur auf Programme bezogen, nicht aber auf andere Daten [...]“ (eine Verlinkung dahin ist nicht mehr möglich, da „Meyers Lexikon Online“ zum 23. März 2009 eingestellt wurde).
  9. ISBN 978-3-8350-0197-8.
  10. Lehr- und Übungsbuch Informatik 1. Hanser Verlag, 2003, Seite 311
  11. ISBN 978-3-423-34507-1, S. 144-149
  12. ISBN 978-3-941875-29-6, S. 35: „Weil Software Gegenstand einer schöpferischen Leistung ist, die man nicht anfassen kann, wird ihr zum Teil die Sachqualität abgesprochen.“
  13. ISBN 978-3-8274-1705-3, 2009, 3. Auflage, S. 3
  14. Wissen.de [2]
  15. dpunkt.de, in Kap. "Software spiegelt die Realität": Software-Systeme werden nicht monolithisch gebaut, sondern bestehen aus Modulen oder Komponenten, die miteinander die Gesamtfunktionalität des Systems bieten.
  16. softwarepatents.eu, "Programmcode in seiner linguistischen Form als Sprachwerk"
  17. Hanser Verlag Lehr- und Übungsbuch Informatik 1.' 2003, Seite 311
  18. Klaus Wüst Mikroprozessortechnik Kap. 7.5.4 ISA - Instruction Set Architecture [3] Die ISA [Diese Form] ist genau das, was für die Erstellung von Maschinenprogrammen bekannt sein muss.
  19. ISBN 3-8031-2082-9
  20. The Selected Essays of Richard Stallman (aktualisierte Fassung): "Open Source ist ein Entwicklungsmodell. Freie Software ist eine soziale Bewegung. Für die Open-Source-Bewegung ist nicht-freie Software eine suboptimale Lösung. Für die Freie-Software-Bewegung ist nicht-freie Software ein soziales Problem und freie Software ist die Lösung."; ursprüngliche Fassung: "Für die Freie-Software-Bewegung ist freie Software ein ethisches Gebot ... nicht-freie Software ist ein gesellschaftliches Problem ..."
  21. http://www.gnu.org/philosophy/free-software-for-freedom.de.html


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Internet

aus www.ifq.de, der freien Enzyklopädie

Das Internet (von englisch interconnected network), kurz das Netz, ist ein weltweites Netzwerk, bestehend aus vielen Rechnernetzwerken, durch das Daten ausgetauscht werden. Es ermöglicht die Nutzung von Internetdiensten wie E-Mail, Telnet, Usenet, Dateiübertragung, WWW und in letzter Zeit zunehmend auch Telefonie, Radio und Fernsehen. Im Prinzip kann dabei jeder Rechner weltweit mit jedem anderen Rechner verbunden werden. Der Datenaustausch zwischen den einzelnen Internet-Rechnern erfolgt über die technisch normierten Internetprotokolle. Die Technik des Internets wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben. Umgangssprachlich wird „Internet“ häufig synonym zum World Wide Web verwendet, da dieses einer der meistgenutzten Internetdienste ist und wesentlich zum Wachstum und der Popularität des Mediums beigetragen hat. Im Gegensatz dazu sind andere Mediendienste wie Telefonie, Fernsehen und Radio erst kürzlich über das Internet erreichbar geworden und haben parallel dazu ihre ursprüngliche Verbreitungstechnik.[1] Das Internet hat durch seine neuartige Technik und Verwendung eine eigene Sprachlichkeit hervorgebracht.

Visualisierung der verschiedenen Routen durch Teile des Internets.

Inhaltsverzeichnis

Der Begriff ‚Internet‘ ist ein Anglizismus, der sich aus der ursprünglich rein fachbezogenen Benutzung im Rahmen der gesellschaftlichen Durchdringung unverändert in der Alltagssprache als Eigenname zusammen mit der Kurzform Netz etabliert hat. Er wurde aus der Beschreibung „Interconnected Networks“, also „mit-/untereinander verbundene Netzwerke“, auch „Zusammengeschaltete Netzwerke“, gebildet, da das Internet aus einem Zusammenschluss zahlreicher Teilnetze mittels der technischen Standards des sehr dezentral strukturierten ARPANETs entstand.

Sprachkritiker, wie beispielsweise verschiedene Sprachvereine verwenden selber für Internet deutsche Synonyme wie Weltnetz, Zwischennetz oder Internetz. Obwohl seit Mitte der 1990er Jahre bekannt, sind diese Synonyme zwar in diversen sprachkritischen Publikationen zu finden[2], haben aber in der Alltagssprache keine praktische Bedeutung erlangt.[3] Weder Weltnetz[4] noch Zwischennetz[5] sind – im Gegensatz zu Internet – bis heute in den Duden (24. Auflage) aufgenommen worden. Eine besondere Verbreitung findet der Begriff Weltnetz in rechtsextremen Kreisen.[6][7]

Der Begriff Internet kann auch nach den Methoden der wissenschaftlichen Definitionslehre definiert werden. Danach handelt es sich beim Internet um ein Kommunikationsmittel, das durch die weltweite Verknüpfung von Computern zwecks Austausch von Text-, Bild-, Musik- und Videodateien gekennzeichnet ist.

Hauptartikel: Geschichte des Internets und Chronologie des Internets

Das Internet ging aus dem im Jahr 1969 entstandenen ARPANET hervor, einem Projekt der Advanced Research Project Agency (ARPA) des US-Verteidigungsministeriums. Es wurde zur Vernetzung von Universitäten und Forschungseinrichtungen benutzt. Ziel des Projekts war zunächst, die knappen Rechenkapazitäten sinnvoll zu nutzen, erst in den USA, später weltweit. Die anfängliche Verbreitung des Internets ist eng mit der Entwicklung des Betriebssystems Unix verbunden. Nachdem das Arpanet im Jahr 1982 TCP/IP adaptierte, begann sich auch der Name Internet durchzusetzen.

Nach einer weit verbreiteten Legende bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines Atomkrieges eine störungsfreie Kommunikation zu ermöglichen.[8][9] In Wirklichkeit wurden vorwiegend zivile Projekte gefördert, auch wenn die ersten Knoten von der ARPA finanziert wurden.

Die wichtigste Applikation in den Anfängen war die E-Mail. Bereits im Jahr 1971 überstieg das Gesamtvolumen des E-Mail-Verkehrs das Datenvolumen, das über die anderen Protokolle des Arpanet, Telnet und FTP, abgewickelt wurde. Im Jahr 1990 beschloss die US-amerikanische National Science Foundation, das Internet für kommerzielle Zwecke nutzbar zu machen, wodurch es über die Universitäten hinaus öffentlich zugänglich wurde. Tim Berners-Lee entwickelte um das Jahr 1989 am CERN die Grundlagen des World Wide Web. Am 6. August 1991 machte er dieses Projekt eines Hypertext-Dienstes im Internet mit einem Beitrag zur Newsgroup alt.hypertext öffentlich und weltweit verfügbar.[10]

Erster Web-Server am CERN

Rasanten Auftrieb erhielt das Internet seit dem Jahr 1993, als der erste grafikfähige Webbrowser namens Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde, der die Darstellung von Inhalten des WWW ermöglichte. Schließlich konnten auch Amateure auf das Netz zugreifen, was mit der wachsenden Zahl von Nutzern zu vielen kommerziellen Angeboten im Netz führte. Der Webbrowser wird deswegen auch als die „Killerapplikation“ des Internets bezeichnet. Das Internet ist ein wesentlicher Katalysator der Digitalen Revolution.

Neue Techniken verändern das Internet und ziehen neue Benutzerkreise an: IP-Telefonie, Groupware wie Wikis, Blogs, Breitbandzugänge (zum Beispiel für Vlogs und Video-on-Demand), Peer-to-Peer-Vernetzung (vor allem für File Sharing) und Online-Spiele (z. B. Rollenspiele oder Taktikshooter).

Das rasante Wachstum des Internets sowie Unzulänglichkeiten[11] für immer anspruchsvollere Anwendungen bringen es jedoch möglicherweise in Zukunft an seine Grenzen[12], so dass inzwischen Forschungsinitiativen begonnen haben, das Internet der Zukunft zu entwickeln.

Siehe auch: Web 2.0
Ein kleiner Ausschnitt des World Wide Web, dargestellt durch Hyperlinks.

Das Internet gilt bei vielen Experten als eine der größten Veränderungen des Informationswesens seit der Erfindung des Buchdruckes mit großen Auswirkungen auf diverse Bereiche des alltäglichen Lebens.

Schon Anfang der 1980er Jahre waren Mailbox-Netze entstanden, basierend auf Datenfernübertragung über das Telefonnetz oder auf Netzen wie Datex-P. Diese Technik blieb aber Experten vorbehalten, wie auch der Zugang zu weltweiten TCP/IP-Netzen lange Zeit nur über Universitäten möglich war. Erst mit kommerziellen Verbreitung der Internet E-Mail Anfang der 1990er und durchgreifend dann mit dem World Wide Web etablierte sich das Internet seit Mitte der 1990er Jahre zunehmend als Standard für die Verbreitung von Informationen jeder Art.

Waren dies in der Anfangszeit vor allem Kommunikation per E-Mail und der Selbstdarstellung von Personen und Firmen, folgte im Zuge der New Economy zum Ende des letzten Jahrtausends der Online-Handel. Mit steigenden Datenübertragungsraten und sinkenden Preisen und nicht zuletzt durch die Verfügbarkeit von DSL-Flatrates dient es auch der Verbreitung größerer Datenmengen. Hiermit verbunden sind vor allem massenhafte Urheberrechtsverletzungen, deren Bekämpfung heute einen Großteil der Internet-Gesetzgebung ausmachen.

Eine zunehmende Bedeutung erhält auch der Online-Journalismus, der heute zu einem großen Konkurrenten der klassischen Medienlandschaft geworden ist. Aktuell sehen Beobachter zudem einen Wandel des Nutzers vom „surfenden“ (passiven) Medienkonsumenten zum aktiven User Generated Content-Autor, der sich zu vielerlei Themen in Online-Communitys mit Gleichgesinnten vernetzt, die die klassische, bisher eher techniklastige Netzkultur ergänzt. Örtlich bedingte Grenzen sind im Internet völlig aufgehoben und werden durch themenbezogene Gruppen ersetzt. Durch die Vielzahl der Informationsquellen stellt der sinnvolle Umgang mit dem Internet größere Anforderungen an die Medienkompetenz der Benutzer als klassische Medien.

Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Netzes und durch Anonymität als schwer durchsetzbar angesehen werden. Bei Anwendungen wie E-Mail zeigt sich, dass die Technik auf das Phänomen des Spam überhaupt nicht vorbereitet ist. Dienste wie MySpace oder Facebook sollen den Aufbau Sozialer Netzwerke ermöglichen; Funktionen wie Instant Messaging erlauben online nahezu verzögerungsfreie Kommunikation. Mit der steigenden Verbreitung des Internets wird in den Medien der Begriff Internetsucht immer wieder thematisiert, der wissenschaftlich jedoch umstritten ist. Ob und wann die exzessive Nutzung des Internets einen „schädlichen Gebrauch“ oder Missbrauch darstellt und zur Abhängigkeit führt, wird in verschiedenen Studien aktuell untersucht.

Staatliche Stellen hatten lange Zeit von der Funktion des Internets wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Bis zur New Economy-Entwicklung ab dem Jahr 1998 war zudem die Bedeutung des Internets seitens der Politik unterschätzt worden. Dies änderte sich erst danach, Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsicherheiten zumindest de jure beseitigt. Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicherheit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat kritisiert, etwa durch das am 1. Januar 2008 in Kraft getretene Gesetz zur Vorratsdatenspeicherung, das am 3. März 2010 vom Bundesverfassungsgericht als verfassungswidrig eingestuft wurde. Auch international wird die Kontrolle des Internets durch den Staat aufmerksam beobachtet, etwa beim Internet in der Volksrepublik China.

Die EU-Kommission plante 1998 die Erstellung einer globalen Internet-Charta. Die Regeln sollten zuerst von den Teilnehmerländern und von Vertretern der Industrie und der Verbraucher innerhalb der EU besprochen werden und dann auf einer internationalen Konferenz als Grundlage einer Beratung dienen. Die Regelungen sollten nicht rechtsgültig verpflichtend sein, sondern nur als Leitlinie dienen. Vorgeschlagene Themenbereiche waren Sicherheit, Datenschutz und die Verschlüsselung. Dies solle internationale Geschäfte erleichtern.[13]

Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, welche zusammengeschaltet werden. Darunter sind hauptsächlich:

  • Providernetzwerke, an die die Rechner der Kunden eines Internetproviders angeschlossen sind,
  • Firmennetzwerke (Intranets), über welche die Computer einer Firma verbunden sind, sowie
  • Universitäts- und Forschungsnetzwerke.
Typische Verbindung zum Internet bei Heimanwendern
Typische Verbindung zum Internet bei Firmen

Physikalisch besteht das Internet im Kernbereich (in den Backbone-Netzwerken) sowohl kontinental als auch interkontinental hauptsächlich aus Glasfaserkabeln, die durch Router zu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr-Wachstums verlegt. Da sich die physikalisch mögliche Übertragungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber immens vergrößerte, besitzt das Internet hier zur Zeit teilweise Überkapazitäten. Schätzungen zufolge wurden im Jahr 2005 nur etwa 3 % der zwischen europäischen oder US-amerikanischen Städten verlegten Glasfasern benutzt[14]. Auch Satelliten und Richtfunkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen geringen Anteil.

Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupferleitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder UMTS, übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Kabelmodem oder UMTS, eines Internetproviders zu. Firmen oder staatliche Einrichtungen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet verbunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder - immer häufiger - Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.

In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer bereitstellen und welche nicht dauerhaft erreichbar sind. Solche Rechner werden als Client-Rechner bezeichnet. Server dagegen sind Rechner, welche in erster Linie Internetdienste bereitstellen. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell angebunden und die klimatisierten Räumlichkeiten sind gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer-Anwendungen versetzen auch obige Client-Rechner in die Lage zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen und so wird hier die strenge Unterscheidung des Client-Server-Modells aufgelöst.

An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungsstarke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht. Am DE-CIX in Frankfurt am Main, dem größten deutschen Austauschpunkt dieser Art, sind beispielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten autonomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist jedoch wirtschaftlich sinnvoller, dies gebündelt an Internet-Knoten vorzunehmen. Da in der Regel ein autonomes System, wie z. B. ein Internetprovider, nicht alle anderen auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt. Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog. Upstream- oder Transitprovider dem Kunden alle im Internet verfügbaren Erreichbarkeitsinformationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, sogenannte Tier-1-Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwickeln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen.

Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner sowie keinen Ort geben sollte, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der politischen Ebene des Internets nicht eingehalten. Die Internet Corporation for Assigned Names and Numbers (ICANN), ist die hierarchisch höchste Organisation zuständig für die Vergabe von IP-Adressen, die Koordination des Domain Name Systems (DNS) und der dafür nötigen Root-Nameserver-Infrastruktur, sowie die Festlegung anderer Parameter der Internetprotokollfamilie, welche weltweite Eindeutigkeit verlangen. Sie untersteht wenigstens indirekt dem Einfluss des US-Wirtschaftsministeriums. Um diesen Einfluss zumindest auf das DNS einzugrenzen, wurde das in erster Linie europäische Open Root Server Network aufgebaut, das jedoch mit dem Jahresende 2008 aus nachlassendem Interesse wieder abgeschaltet wurde.[15][16]

Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Ausfallsicherheit bei. Für die Kommunikation zwischen zwei Nutzern existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete, beziehungsweise eine Anfrage und die Antwort, je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kernbereich des Internets meistens keine schwerwiegenden Auswirkungen, ein Ausfall der einzigen Verbindung auf der letzten Meile lässt sich jedoch nicht ausgleichen. Im Bereich der Katastrophenforschung werden flächendeckende Missbräuche oder Ausfälle des Internets, sog. D-Gefahren, sehr ernst genommen.

Hauptartikel: Internet Protocol und Domain Name System

Das Internet basiert auf der Internetprotokollfamilie, welche die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll, in welchem die weltweit eindeutige Adressierung von angebundenen Rechnern festgelegt und benutzt wird, heißt Internetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie ein Telefonat, sondern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP-Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, welche jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.

Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs beschrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Paketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unabhängig von den Netzwerktechniken der Protokollschichten unterhalb von IP geschehen kann, so wie ein 40-Fuß-ISO-Container im Güterverkehr nacheinander per Schiff, Bahn oder Lastwagen transportiert werden kann, um an sein Ziel zu gelangen.

Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internetprotokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der heute üblichen Version IPv4 um 4 Byte (32 Bit), die als 4 Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Version IPv6 sind dies 16 Byte (128 Bit), die als 8 durch Doppelpunkt getrennte Blöcke aus je 4 hexadezimalen Ziffern angegeben werden, z. B. 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Man kann sich diese Adressen wie Telefonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.

Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele administrative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel „www.ifq.de.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht – vom Nutzer unbemerkt – immer dann, wenn er etwa im Webbrowser auf einen neuen Hyperlink klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP-Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, welche in den Namen durch die Punkte erkennbar wird, bilden die Root-Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht. Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.

Im Kernbereich des Internets müssen die IP-Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, welche über den kürzesten Weg zur Ziel-IP-Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingprotokolle automatisch erstellt und aktuell gehalten werden, so wird automatisch auf ausgefallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP-Adressen mit Hilfe von Netzmasken, bei IPv6 spricht man von Präfixlängen, zu Zielnetzen zusammengefasst und diesen wird jeweils ein Ausgang des Routers, zum Beispiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet. Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinformationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines autonomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default-Route, oft auch Standard- oder Default-Gateway genannt, welche für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich dem französischen Wegweiser „Toutes Directions“ (Alle Richtungen) im Straßenverkehr. Die Router im Kernbereich verwalten zurzeit Routingtabellen mit bis zu 360.000 Zielnetzen für IPv4 und 5500 für IPv6.[17]

In den Nutzdaten des Internetprotokolls werden abhängig vom verwendeten Dienst immer noch Protokolle höherer Schichten (wie TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP) und das Hypertext Transfer Protocol Secure (HTTPS) für verschlüsselte Seiten. E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), ebenfalls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt.

Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Organisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige, IP-Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zugegriffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öffentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und es ist freier wählbar, wie die Filterung des Datenverkehrs erfolgen soll.

Siehe auch: Green IT

Der Strombedarf in den Privathaushalten für die Nutzung des Internets ist in den letzten Jahren erheblich angestiegen und wird seriösen Schätzungen zufolge auch in den nächsten Jahren weiter steigen. Im Jahr 2003 wurden in Deutschland etwa 6,8 Milliarden Kilowattstunden elektrischer Strom für den Betrieb des Internets benötigt, für das Jahr 2010 gehen Schätzungen von einem Energiebedarf des Internets von 31,3 Milliarden Kilowattstunden nur in Deutschland aus. Berücksichtigt wurden sowohl die Endgeräte von Privathaushalt und Gewerbe sowie der Energieaufwand zur Bereitstellung der notwendigen Infrastruktur des Internets an Serverstandorten. Nicht in diese Rechnung eingegangen ist der Energiebedarf von Serverstandorten im Ausland.[18] Am Stromverbrauch eines Privathaushaltes ist die Nutzung des Internets zu einem großen Teil beteiligt.

Für das Jahr 2005 wird weltweit von einem Energieverbrauch von 123 Milliarden Kilowattstunden nur für den Betrieb der Infrastruktur für das Internet ausgegangen. Unberücksichtigt bleiben nach dieser Studie die Geräte der Endverbraucher.[19] Aufgrund der stetigen Vergrößerung des Netzes auch in den Entwicklungsländern ist mit einem weiteren Anstieg des Verbrauches zu rechnen, derzeit werden etwa 0,8 % der weltweiten Stromerzeugung für den Betrieb des Internets benötigt.[20]

Im Jahr 2012 beläuft sich das Datenaufkommen im festverkabelten, öffentlich zugänglichen, Internet auf mehr als 26,7 Exabyte (1 Exabyte = 1 Mrd. Gigabyte) pro Monat, was einem täglichen Datenaufkommen von annähernd einem Exabyte entspricht. Die Datenmenge von einem Exabyte ist vergleichbar mit der mehr als 2500-fachen Datenmenge aller Bücher, die jemals in jeder Sprache auf der Welt geschrieben wurden.[21] Das mobile Datenaufkommen (Datenaustausch über Mobilfunknetze) beläuft sich im Jahr 2012 auf über 1,1 Exabyte Daten monatlich.

Bis zum Jahr 2015 wird das Datenaufkommen im festverkabelten Internet voraussichtlich auf annähernd 60 Exabyte pro Monat wachsen. Im mobilen Internet wird ein Datenaufkommen von mehr als 6,2 Exabyte monatlich prognostiziert. Der größte Anteil der übertragenen Daten (über 50%) wird hierbei von Videodiensten (Video-on-Demand) ausgemacht. [22]

Verbreitung des Internets in Europa
Land Anteil der Internetnutzer
Island 91 %
Norwegen 87 %
Dänemark 83 %
Niederlande 82 %
Finnland / Luxemburg 81 %
Schweden 80 %
Schweiz 79 %
Österreich 74 %
England / Estland 69 %
Deutschland / Slowenien 66 %
Spanien 46 %
Italien 41 %
Russland 26 %
Ukraine 15 %

Dieser Abschnitt behandelt den Zugang zum Internet unter demographischen Aspekten; ein separater Artikel behandelt technische Prinzipien und Varianten des Internetzugangs.

Die Anzahl der Teilnehmer oder angeschlossenen Geräte im Internet ist nicht exakt bestimmbar, da Nutzer mit unterschiedlichen technischen Geräten (PC, Mobilgeräte) über verschiedene Anschlusstechniken kurzfristig Teil des Internets werden und dieses auch wieder verlassen. Laut IWS hatten im März 2007 etwa 16,9 Prozent der Weltbevölkerung Zugang zum Internet.[23] Laut EITO nutzen Anfang 2008 1,23 Milliarden Menschen das Internet.[24] In der EU nutzen Anfang 2008 mehr als die Hälfte (51 Prozent) der 500 Millionen EU-Bürger regelmäßig das Internet, wobei 40 Prozent das Internet gar nicht benutzen. In Europa gibt es starke Unterschiede bei den regelmäßigen Internetbenutzern: siehe Tabelle. 80 Prozent der Haushalte mit Internetanschluss verfügen über einen Breitbandzugang.[25] In den USA sind es bereits 75 Prozent, skandinavische Länder 70 Prozent, osteuropäische Staaten teilweise bei 14 Prozent. Besonders verbreitet ist das Internet in Estland, da Estland per Gesetz den kostenlosen Zugang ins Internet garantiert.

In China hatten nach dem Report über die Entwicklung des Internets Mitte 2007 162 Millionen Menschen einen Internetzugang, davon besaßen 122 Millionen einen Breitbandanschluss.[26] Bei jungen Europäern verdrängt das Internet das Fernsehen und andere traditionelle Medien.[27] US-Amerikaner nutzen als Nachrichtenquellen vorwiegend (48 Prozent) das Internet.[28]

2011-05-12 Cornelia Rogall-Grothe Bundesinnenministerium.ogg
Die IT-Beauftragte der Bundesregierung Cornelia Rogall-Grothe über Netzstrategien, IPv6, Soziale Netzwerke und Datenschutz (Mai 2011)

Etwa 60 Prozent aller Deutschen nutzen regelmäßig das Internet, Tendenz steigend um 2 bis 3 Prozent jährlich. In etwa 75 Prozent der deutschen Haushalte stehen PCs mit Internetanschluss, die jedoch mehr von jungen Menschen als von alten Menschen genutzt werden. In Deutschland verfügen ungefähr 68 Prozent der Erwachsenen über einen Internetanschluss.[29] Etwa 80 Prozent der deutschen Jugendlichen (10-13 Jahre) nutzen das Internet.[30] Neben alten Menschen nutzen in Deutschland auch sozial Schwache und Arbeitslose das Internet weniger[31][32] (siehe auch Digitale Kluft). In Deutschland verfügen ca. 60 Prozent der Internetnutzer über einen Breitbandzugang.[33] In der Schweiz verfügen im Jahr 2006 67 Prozent der Bevölkerung über einen privaten Internetzugang.[34]

Deutsche besuchen statistisch gesehen regelmäßig acht Internet-Seiten. (Männer: durchschnittlich 9,4; Frauen: 6,4 Seiten / 14- bis 19-jährige: 5,8; 30 bis 39 Jahre alte: 9,1 Seiten). Die Jungen nutzen bevorzugt Unterhaltungsangebote.[35] Die deutschen Männer sind im Durchschnitt 1,3 Stunden am Tag online, bei den deutschen Frauen sind es durchschnittlich 0,8 Stunden.[36]

Dieser Abschnitt behandelt die parallele Nutzung von Internet und Fernsehen.

Inzwischen nutzen immer mehr Europäer Fernsehen und Internet gleichzeitig. Eine Studie von Anfang 2010, basierend auf der Forschung der EIAA Mediascope Studie, besagt, dass bereits 70 % der Fernsehzuschauer gleichzeitig surfen. 75 % der Briten und Dänen sowie 73 % der Deutschen und 71 % der Belgier nutzen mindestens einmal pro Woche beide Medien gleichzeitig. Die Umfrage hat außerdem ergeben, dass jeder Zweite nach Kontakt mit einer TV-Werbung im Internet danach surft.[37]

Das Internet hat eine eigene Art der Schriftlichkeit hervorgebracht. Ebenso haben soziale Netzwerke zur Entwicklung einer eigenen Netzkultur mit verschiedenen sprachlichen Ausprägungen beigetragen.

Das Internet eignet sich dafür, über zeitliche und räumliche Distanzen hinweg schriftlich zu kommunizieren. Es vereint dabei multimediale Aspekte und integriert diese in seine Schriftlichkeit (z. B. Emoticons – Symbole, die sich bewegen und bestimmte Gefühlszustände darstellen sollen). Außerdem unterliegt es einer beständigen Metamorphose und hat keinen Anspruch auf endgültigen Werkscharakter. Die Texte im Internet sind kodiert, somit immateriell und exteriorial. Die schriftlichen Produkte im Internet lassen sich schnell verändern und verlangen die Bereitschaft, sich beständig auf Neues einzustellen.

Im Internet wird Literatur zur Verfügung gestellt und Literatur geschrieben. So entstanden etwa literarische Gattungen wie Digitale Poesie, Weblogs oder kollaboratives Schreiben im Netz. Literarische Produktion im Internet folgt anderen Kriterien als herkömmliche Literatur und Textproduktion. Literatur im Internet ist von Aspekten der Technik, Ästhetik und Kommunikation geprägt. So haben beispielsweise Neal Stephenson und sein Team mit dem Schreiben eines Romans („The Mongoliad”) im Internet begonnen, bei dem eine Community von Autoren interaktiv mitschreibt. Neben dem eigentlichen Text gibt es eine eigene E-Publishing-Plattform („Subutai“) mit Videos, Bildern, einer Art www.ifq.de und einem Diskussionsforum zum Roman.

  • Anonymität im Internet
  • Internetrecht
  • Internet Archive
  • Internet-Backbone
  • Internetkriminalität
  • Internetworking
  • Internet2
  • Internet Society
  • Netzneutralität
  • Zensur im Internet
  • Holger Bleich: Bosse der Fasern. Die Infrastruktur des Internet. In: c't 7/2005, S. 88–93 (21. März 2005)
  • Manuel Castells: Die Internet-Galaxie - Internet, Wirtschaft und Gesellschaft. Wiesbaden 2005, ISBN 3-8100-3593-9.
  • Ch. Meinel, H. Sack: WWW - Kommunikation, Internetworking, Web-Technologien. Springer-Verlag, Berlin Heidelberg New York 2004.
  • Andreas Metzner-Szigeth: Internet & Gesellschaft: Ein Humanes Projekt?. In: Sic et Non – Zeitschrift für Philosophie und Kultur – im Netz, No. 8, 2007
  • Stefan Scholz: Internet-Politik in Deutschland. Vom Mythos der Unregulierbarkeit. Münster 2004, ISBN 3-8258-7698-5.
  • Andreas Schelske: Soziologie vernetzter Medien. Grundlagen computervermittelter Vergesellschaftung. Oldenbourg Verlag, München 2006, ISBN 3-486-27396-5 (Reihe: Interaktive Medien. Herausgeber: Michael Herczeg).
  • Philip Kiefer: Internet & Web 2.0 von A bis Z einfach erklärt. Data Becker, Düsseldorf 2008, ISBN 978-3-8158-2947-9.
  • Bridgette Wessels: Understanding the Internet : a socio-cultural perspective. Palgrave Macmillan, Basingstoke 2010, ISBN 978-0-230-51733-2.
  • Christine Böhler: Literatur im Netz. Triton, Wien, 2001. ISBN 3-85486-103-6.
  • Johannes Fehr (Hg.): Schreiben am Netz. Haymon, Innsbruck, 2003. ISBN 3-85218-422-3.
  • Jannis Androutsopoulos: Neue Medien – neue Schriftlichkeit? In: Mitteilungen des Deutschen Germanistenverbandes 1/07, 2007, S. 72–97 (PDF).
  • Christiane Heibach: Literatur im Internet: Theorie und Praxis einer kooperativen Ästhetik. Dissertation, Heidelberg 1999, ISBN 3-89825-126-8.
  1. Vinton Cerf, Yogen Dalal, Carl Sunshine: RFC 675: (Internet Transmission Control Program, December 1974)
  2. ISBN 3-00-005949-0, S. 71
  3. Siehe Leipziger Wortschatz zu den Häufigkeitsklassen von Internet (HK 8), Weltnetz (HK 20), Zwischennetz (HK21) und Internetz (HK 22); bei 'Weltnetz' ein Verhältnis von 4096:1 bzw. ein Anteil von 0,0244 %, die anderen Begriffe entsprechend geringer
  4. Weltnetz
  5. Zwischennetz
  6. Neonazis im “Weltnetz”: Wenige Aktivisten - mit viel Raum, NPD-Blog, 7. März 2007
  7. Den Extremisten auf der Spur, Die Welt, 23. August 2000
  8. Stimmt's - Eine bombige Legende, Die Zeit, Drösser
  9. A Brief History of the Internet bei e-OnTheInternet von Barry Leiner, David D. Clark, Robert E. Kahn, Jonathan Postel, u.a.
  10. Tim Berners-Lee: WorldWideWeb - Executive Summary, 6. August 1991
  11. M. Handley: Why the Internet only just works BT Technology Journal, Vol 24, No 3, July 2006.
  12. RFC 4984 Report from the IAB Workshop on Routing and Addressing, September 2007
  13. Neue EU-Initiative für globale Internet-Regeln. Die Welt (5. Februar 1998). Abgerufen am 8. März 2011.
  14. Glasfasern sind nur zu 3 % beleuchtet
  15. Alternative DNS-Root-Server vor der Abschaltung
  16. https://lists.dns-oarc.net/pipermail/dns-operations/2008-October/003339.html
  17. BGP Analysis Reports
  18. Benedikt Ziegenfuss: Internet Grund für hohen Stromverbrauch. WinFuture.de, vom 27. Januar 2003]
  19. Schadet Surfen dem Klima?, WDR.de, Jörg Schieb, 19. Februar 2007
  20. Stephen Shankland: U.S. servers slurp more power than Mississippi. c|net news.com, vom 14. Februar 2007]
  21. Cisco Visual Networking Index - What is a Zettabyte?
  22. Cisco Visual Networking Index
  23. World Internet Users and Population Stats
  24. bitkom.de: Fast jeder fünfte Mensch auf der Welt ist online: 2010 werden voraussichtlich 1,5 Milliarden Menschen online sein
  25. golem.de: EU: Mehr als die Hälfte der EU-Bürger nutzt das Internet
  26. heise.de: China hat 162 Millionen Internetnutzer, 19. Juli 2007. Originalbericht (chinesisch)
  27. heise.de: Bei den jungen Europäern verdrängt das Internet das Fernsehen und andere Medien
  28. heise.de: Internet ist für die Hälfte der Amerikaner primäre Nachrichtenquelle
  29. heise.de: Studie: 68 Prozent der erwachsenen Deutschen sind online
  30. golem.de: Klassisches wird von elektronischem Spielzeug verdrängt: „Während schon 80 Prozent der 10- bis 13-jährigen mindestens ab und zu im Netz unterwegs sind, ist es bei den 6- bis 9-jährigen jeder Dritte.“
  31. spiegel.de: 60 Prozent der Deutschen sind online
  32. golem.de: Studie: Mehr als 40 Millionen Deutsche sind im Netz
  33. heise.de: Zahl der deutschen Internetnutzer wuchs um 5 Prozent
  34. heise.de: „… im Jahr 2006 verfügen 67 Prozent der Schweizer Bevölkerung über einen privaten Internetzugang.“
  35. http://www.sevenonemedia.de/web/sevenone/relevant-set Relevant Set 2011
  36. Allensbacher Computer- und Technik-Analyse 2007: Durchschnittliche Internetnutzung am Tag, angeboten durch: statista.org
  37. wuv.de


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

Heiligenhafen

aus www.ifq.de, der freien Enzyklopädie

Wappen Deutschlandkarte
54.37277777777810.9744444444447Koordinaten: 54° 22′ N, 10° 58′ O
Basisdaten
Bundesland: Schleswig-Holstein
Kreis: Ostholstein
Höhe: 7 m ü. NN
Fläche: 18,12 km²
Einwohner:

9.221 (31. Dez. 2010)[1]

Bevölkerungsdichte: 509 Einwohner je km²
Postleitzahlen: 23771–23774
Vorwahl: 04362
Kfz-Kennzeichen: OH
Gemeindeschlüssel: 01 0 55 021
Adresse der
Stadtverwaltung:
Am Markt 4–5
23774 Heiligenhafen
Webpräsenz: www.stadt-heiligenhafen.de
Bürgermeister: Heiko Müller (parteilos)
Lage der Stadt Heiligenhafen im Kreis Ostholstein
Marktplatz

Heiligenhafen (Plattdeutsch: Hilligenhaven) ist eine Kleinstadt im Kreis Ostholstein, Schleswig-Holstein, auf der östlichen Spitze der Halbinsel Wagrien an der Ostsee.

Inhaltsverzeichnis

Der Ortskern liegt an einer Bucht (deren künstlich abgetrennter Teil als Binnensee bezeichnet wird, jedoch Zugang zur Ostsee hat), die durch eine vorgelagerte Landzunge, bestehend aus Steinwarder und Graswarder, von der Ostsee getrennt ist. Der Graswarder ist Vogelschutzgebiet. In der Nähe des Ortes befindet sich auch eine Steilküste, man kann hier also drei für die Ostseeküste typische Elemente des Uferbereiches überblicken, das Kliff, die Strandwälle und den Sandstrand.

Heiligenhafen, wahrscheinlich als Hafenstadt gegründet, wird in den schriftlichen Quellen des 13. Jahrhunderts bereits mehrfach erwähnt und ist wohl zwischen 1249 und 1259 aus den Kolonistendörfern Helerikendorp und Tulendorp sowie aus den Dörfern Kerstinbuerfeld, Küsdorp und Vrysgard entstanden.

Die einwandfreie Deutung des Namens, der über die Jahre einige Wandlungen erfahren hat, ist bis heute nicht gelungen. So könnte der erste Teil aus dem Wort „heilig“ oder aus dem Begriff „Hallig“ entstanden sein und der Teil „hafen“ wohl auf den Zweck der Gründung hindeuten.

Über die erstmalige Verleihung der Stadtrechte gibt es keine exakten Quellen. Allerdings gehen die Verfasser verschiedener Stadtchroniken davon aus, dass dies etwa um 1250 erfolgt sein muss. Urkundlich nachweisbar wurde Heiligenhafen 1305 durch den Grafen Gerhard II. auf seinem Schloss in Grube mit dem „Lübschen Rechte“ belehnt. Danach galten die Heiligenhafener als Bürger und konnten im Gegensatz zu der im Umland wohnenden Bevölkerung nach eigenem Recht richten. Wahrscheinlich war diese Urkunde aber nur eine Bestätigung für schon früher verliehene Rechte, denn bei jedem Regierungswechsel musste sich die Stadt das Privileg erneut bestätigen lassen.

Die Geschichte der Stadt war sehr wechselvoll. Sehr stark litt sie 1320 nach einer Überschwemmung. Fünf Jahre später, als Graf Johann III. den Heiligenhafenern durch eine Urkunde die Erlaubnis über die zollfreie Ausfuhr ihrer Erzeugnisse gab, blühte die Stadt auf. Sie wurde Hauptausfuhrhafen des Oldenburger Landes. Durch das verliehene Marktrecht durfte sich die Stadt ein Stadtsiegel geben, das heute noch das Stadtwappen und die Stadtflagge ziert. Die nächsten Jahrhunderte war Heiligenhafen als sogenannter königlicher Anteil direkt dem dänischen König unterstellt.

1391 brannte die Stadt bis auf acht Häuser nieder. 1428 wurde sie von dem Dänenkönig Erik VII. restlos zerstört. Die folgende ruhige und stetige Aufwärtsentwicklung wurde durch den Dreißigjährigen Krieg unterbrochen. So musste Heiligenhafen 1625 wegen der wachsenden Not das 1437 erworbene Dorf Klaustorf wieder verkaufen. Von 1627 bis 1630 wütete die Pest und brachte die Stadt an den Rand des Ruins. Auch die folgenden Jahrzehnte brachten durch Kriege, Feuersbrünste und Sturmfluten neues Leid über die Bevölkerung. Erst 1720 zog wieder Frieden und eine lange Zeit Ruhe ein.

Die Kriege in Schleswig-Holstein haben Heiligenhafen nur am Rande berührt. Spürbarer wurden die Heiligenhafener in den Zweiten Weltkrieg und seine Folgen hineingezogen, zumal Heiligenhafen 1938 Garnisonsstadt geworden war. Nach dem Krieg wurde die wagrische Halbinsel von den Engländern zum Gefangenengebiet erklärt und die gefangenen deutschen Soldaten wurden in Kasernen und Scheunen interniert. Um die Flucht der Soldaten zu verhindern, wurden die Boote der Heiligenhafener Fischer auf die Reede gefahren und dort versenkt.

Durch den Flüchtlingsstrom aus den ehemaligen Deutschen Ostgebieten stieg die Einwohnerzahl Heiligenhafens sprunghaft von 3.500 auf 10.700 an. Bürgermeister und Stadtverordnete standen vor der Aufgabe, für die in großen Barackenlagern untergebrachten Flüchtlinge und Vertriebenen neue Wohnungen zu schaffen. Durch Programme, die vom Bund, Land und Kreis unterstützt wurden, entstanden neue Wohnblocks und der Siedlungsbereich der Stadt dehnte sich erheblich aus. Der Altstadtbereich mit seinen Straßenzügen und dem Markt blieb in seiner ursprünglichen Form erhalten.

Seit der Kommunalwahl 2008 haben die CDU sechs, die SPD und die Wählergemeinschaft BFH je fünf, Bündnis 90/Die Grünen zwei Sitze und die FDP einen Sitz.

Blasonierung: „In Silber über silbernen und blauen Wellen, in denen vier silberne Fische paarweise übereinander schwimmen, eine durchgehende rote Quadermauer; darauf sechs aneinandergereihte rote Giebelhäuser mit Toren und Uhlenloch, das zweite und fünfte besteckt mit einer roten Fahne, darin ein silbernes Nesselblatt; zwischen den Fahnen ein roter Schild mit silbernem Nesselblatt.“[2]

Die Große Bürgergilde zu Heiligenhafen gehört zu den ältesten Gilden Deutschlands und feiert jährlich im Juni das große Gildefest.

Im Heimatmuseum Heiligenhafen wird ein historischer Einblick in die Stadtgeschichte Heiligenhafens gewährt.

Etwas außerhalb von Heiligenhafen befinden sich die als Naturdenkmal geschützten bronzezeitlichen Grabhügel Struckberg und Tweltenberge.

In Heiligenhafen ist das Seenotrettungsboot Heiligenhafen der DGzRS stationiert.

Den Mittelpunkt der Stadt bildet der Altstadtbereich mit der 750 Jahre alten Stadtkirche mit ihrem Treppengiebelturm, dessen Bauform ohne unmittelbaren dänischen Einfluss nicht zu erklären ist, dem 1992 neu gestalteten Marktplatz mit dem als Wohnhaus gebauten Rathaus von 1882 und den Bürgerhäusern, die zum Teil im Rahmen der Städtebauförderung saniert worden sind. Dieser Altstadtbereich wird in West-Ost-Richtung durch die Bergstraße und den Thulboden und in Süd-Nord-Richtung durch die Mühlenstraße und die Brückstraße getrennt. Im Ortskern und im Bereich des Hafens findet man gut erhaltene Häuser aus vergangenen Jahrhunderten. Besonders sehenswert sind die Häuser an den Straßen Thulboden (zum Beispiel das Heimatmuseum), Hafenstraße (zum Beispiel „Alter Salzspeicher“), Bergstraße und Brückstraße.

  • Rathaus am Markt

Seit 1977 finden jährlich die 10-tägigen Hafenfesttage statt. Als besonderes Event kann der „Rock am Kirchberg“ hervorgehoben werden, der erstmals 1982 im Rahmen der Hafenfesttage stattfand, und sich mit der Zeit für viele zum Höhepunkt der Festtage entwickelt hat.

  • siehe Liste der Kulturdenkmale in Heiligenhafen
Denkmal für den Heiligenhafener Fischer Gottlieb Friedrich Stüben, der 1864 preußische Soldaten unter Xavier von Mellenthin an dänischen Kriegsschiffen vorbei durch den Fehmarnsund lotste, wodurch die dänischen Besatzer überrascht wurden

Heiligenhafen ist ein staatlich anerkanntes Seeheilbad und bis heute ein wichtiger Fischereistandort. Außerdem gibt es hier ein großes psychiatrisches Krankenhaus. Westlich des Stadtzentrums befindet sich ein großer Ferienpark, östlich die Fehmarnsundbrücke im Verlauf der Vogelfluglinie. Tourismus, Fischerei, Handel, Handwerk und die Klinik für Psychiatrie, Psychotherapie und Neurologie sowie verschiedene Banken und Behörden bestimmen heute die Beschäftigungsstruktur der Bevölkerung. Ein neues Gewerbegebiet „Dührenkamp“ wurde 1998 im Osten der Stadt erschlossen. Ein interkommunales Gewerbegebiet zusammen mit der Stadt Oldenburg, der Gemeinde Großenbrode, der Gemeinde Gremersdorf und der Stadt Heiligenhafen ist als weiterer Gewerbe- und Industriestandort in Planung. In Heiligenhafen befinden sich viele auf dänische Kunden spezialisierte Lebensmittelgroßgeschäfte, die vor allem ein im Vergleich zu Dänemark preisgünstiges Sortiment an alkoholischen Getränken bereithalten. Dies führt zu einem lebhaften „Versorgungstourismus“ – vornehmlich mit Bussen aus Skandinavien – auf den sich mittlerweile auch die deutschen Discounter eingestellt haben.

Der Fremdenverkehr bildet eine der Haupterwerbsquellen in Heiligenhafen. Als Ende des 19. Jahrhunderts der Seehandel immer mehr an Bedeutung verlor, blieben als Erwerbsquellen im Wesentlichen die Landwirtschaft, das Handwerk und die Fischerei. Der Fremdenverkehr kam 1872 hinzu. 1895 wurde die „Deutsche Badegesellschaft Heiligenhafen“ gegründet, die von der Stadt auf 100 Jahre den gesamten Küstenstreifen vom Hohen Ufer bis zur Ostspitze des Graswarders pachtete. Sie versuchte, den Tourismus in Heiligenhafen zu beleben. Dies gelang jedoch nur bis 1914. Danach hatte die Gesellschaft praktisch aufgehört zu existieren. Erst nach dem Zweiten Weltkrieg erfolgte ein bis zum heutigen Tag kontinuierlicher Ausbau des Seebades.

Von 1969 bis 1972 entstand im Westen außerhalb der Ortslage und in unmittelbarer Strandnähe ein Ferienpark mit rund 1.700 Appartements. In diesem Gebiet befinden sich heute zahlreiche Freizeiteinrichtungen wie ein RehaZentrum, ein Wellnesscenter, Kinderspielplätze, Tennisplätze, ein Kino sowie Kegel- und Bowling-Bahnen und ein Musik- und Veranstaltungspavillon mit 200 Sitzplätzen. Im Bereich des Hauptbadestrandes ist ein Erlebnisbereich geschaffen worden, der in seiner Vielfältigkeit (Grillplatz, Veranstaltungsbühne, Beach-Volleyball, Bolzplatz, Boule-Bahn, Skater-Anlage, Spielplätze) allen Altersgruppen Rechnung trägt.

Im Bereich Ferienpark und Steinwarder ist der Tourismus zu Hause. Ein neues Hallenbad mit Beachvolleyball-Feld und einigen Geschäften und Restaurants bieten bei wechselhaftem Wetter eine Alternative zum Sandstrand und der Steilküste.

Heiligenhafen befindet sich am Endpunkt der A 1 (Anschlussstelle Heiligenhafen-Mitte). Ein 2,9 km langes Teilstück der A 1 zur Anschlussstelle Heiligenhafen-Ost soll 2011 fertig gestellt sein. Im weiteren Verlauf wird die an die A 1 anschließende B 207 Richtung Fehmarn und Dänemark als Hinterlandanbindung der geplanten Festen Fehmarnbelt-Querung bis 2018 vierstreifig ausgebaut werden. Entlang der A 1 / B 207 verläuft die Europastraße 47 über die „Vogelfluglinie“, die nach etwa 25 km den Fährhafen Puttgarden am Fehmarnbelt erreicht.

In Heiligenhafen verkehren zwei Überlandbuslinien, die von der Autokraft im Rahmen der Verkehrsgemeinschaft Ostholstein betrieben werden:

  • 5804 Neustadt (Holst) – Oldenburg (Holst) – Heiligenhafen (– Burg – Puttgarden) und
  • 5811 (Oldenburg –) Heiligenhafen – Burg (Fehmarn) – Puttgarden

Außerdem gibt es zwei innerstädtische Linien. Von April bis September verkehrte bis zum Jahr 2011 einmal täglich der Bäderbus von und nach Hamburg.[3]

In der Nachbargemeinde Großenbrode befindet sich der geografisch nächstgelegene Bahnhof. Hier halten Züge des Regionalverkehrs. Der nächste Bahnhof, an dem Züge des Fernverkehrs halten, befindet sich in Oldenburg in Holstein. Beide Bahnhöfe sind über Linienbusse mit Heiligenhafen verbunden. Der Bahnhof Heiligenhafen als Endpunkt einer Stichstrecke von der Vogelfluglinie mit dem ehemals kleinsten Bahnbetriebswerk der Deutschen Bundesbahn ist zwischenzeitlich geschlossen worden. Die Gleise wurden demontiert.

Auch an die Belange behinderter und älterer Menschen wurde durch einen behindertengerechten Badesteg, einen rollstuhlgerechten Strandweg und entsprechende Spielgeräte gedacht.

In unmittelbarer Nähe der Innenstadt befindet sich ein Yachthafen mit rund 1.000 Liegeplätzen und moderner Infrastruktur (Sanitärgebäude, Slip-Anlage, Grillplatz und Spielplatz).

Für Angler gilt Heiligenhafen bereits seit den 1960er Jahren als beliebter Ausgangspunkt für Hochseeangeltouren mit Ausgangspunkt im Fischereihafen. Zielfische sind vor allem Dorsche und diverse Plattfische.

Naturfreunde finden auf dem Steinwarder, im Naturschutzgebiet auf dem Graswarder, am Hohen Ufer oder in der nahen Umgebung wunderschöne Wander- und Erholungsmöglichkeiten.

  • Eugen Petersen (1836–1919), Archäologe
  • Wilhelm Jensen (1837–1911), Lyriker und Schriftsteller
  • Gerhard Poppendiecker (* 1937), Politiker (SPD)
  • Theodor Storm (1817–1888) wurde durch einen Aufenthalt in Heiligenhafen 1881 zur Novelle Hans und Heinz Kirch inspiriert, deren Schauplatz hier angesiedelt ist.
  • Fritz Graßhoff (1913–1997), Zeichner, Maler und Schriftsteller, war nach dem Krieg hier interniert und schrieb 1945 Das Heiligenhafener Sternsingerspiel.
  • Rainer Jarchow (* 1941), Initiator der größten deutschen AIDS-Hilfsorganisation, war hier drei Jahre Pastor

.

  • Heinrich Scholtz, Chronik der Stadt Heiligenhafen verfaßt und herausgegeben im Jahre 1743 von dem damaligen Hauptpastor Heinrich Scholtz. Neudruck. Heiligenhafen 1930
  • Elisabeth Fuchs: Heiligenhafen. Lebensformen in einer fremdenverkehrswirtschaftlich orientierten deutschen Kleinstadt. 1984
  • Hans Friedrich Rothert: Die Anfänge der Städte Oldenburg, Neustadt und Heiligenhafen. 1970
  • Jörgen Heinritz: 650 Jahre Hafen Heiligenhafen. Eine Dokumentation. Hrsg.: Stadt Heiligenhafen. Eggers, Heiligenhafen 2000, ISBN 3-9802249-2-9.
  • Norbert Fischer & Sonja Jüde & Stefanie Helbig & Gabriele Rieck (Hrsg.): Der Graswarder – Küstenlandschaft der Ostsee. DOBU-Verlag, Hamburg, erscheint März 2011, etwa 250 S., mit zahlreichen farbigen Abb., ISBN 3-934632-42-4, EAN 9783934632424 (in Vorbereitung)
  1. Statistikamt Nord: Bevölkerung in Schleswig-Holstein am 31. Dezember 2010 nach Kreisen, Ämtern, amtsfreien Gemeinden und Städten (PDF-Datei; 500 kB) (Hilfe dazu)
  2. Kommunale Wappenrolle Schleswig-Holstein
  3. Bäderbus eingestellt


Unsere Statistiken erreichen Sie hier

Dieser Artikel basiert auf dem Artikel wikipedia.de aus der freien Enzyklopädie Wikipedia und steht unter der GNU-Lizenz für freie Dokumentation.
In der Wikipedia ist eine Liste der Autoren verfügbar.

 
 

 

 

 

» Statistik » Empfehlen » Gästebuch » Anfahrt » Datenschutz » Impressum

Copyright © 1998-2014. IFQ GmbH Wismar and Cliffmoe IT Consulting. All rights reserved. Alle Rechte vorbehalten.