Rheinwerk Computing < openbook > Rheinwerk Computing - Professionelle Bücher. Auch für Einsteiger.
Professionelle Bücher. Auch für Einsteiger.

Inhaltsverzeichnis
Vorwort
Leitfaden
1 Die Wurzeln von Ubuntu
2 Was ist Ubuntu?
3 Die Versionen im Detail
4 Die Möglichkeiten der beiliegenden DVDs
5 Daten aus Windows sichern
6 Die Installation
7 Erste Schritte
8 Kubuntu und Xubuntu
9 Ubuntu mobil
10 Programme und Pakete installieren
11 Internet und E-Mail
12 Office
13 Grafik und Bildbearbeitung
14 Multimedia
15 Das Terminal
16 Programmierung und Design
17 Einrichtung der grundlegenden Hardware
18 Software- und Paketverwaltung
19 Architektur
20 Backup und Sicherheit
21 Desktop-Virtualisierung
22 Server-Installation
23 Sicherheit und Monitoring
24 Netzwerke
25 Server im Heim- und Firmennetzwerk
26 Der Server im Internet
27 Server-Virtualisierung mit KVM
28 Server-Virtualisierung mit Xen
29 Hilfe
30 Befehlsreferenz
Mark Shuttleworth
Glossar
Stichwort

Buch bestellen
Ihre Meinung?

Spacer
<< zurück
Ubuntu GNU/Linux von Marcus Fischer
Das umfassende Handbuch, aktuell zu Ubuntu 10.04 LTS "Lucid Lynx"
Buch: Ubuntu GNU/Linux

Ubuntu GNU/Linux
5., aktualisierte und erweiterte Auflage, gebunden, mit 2 DVDs
1.104 S., 39,90 Euro
Rheinwerk Computing
ISBN 978-3-8362-1654-8
Pfeil 1 Die Wurzeln von Ubuntu
Pfeil 1.1 Mehr als die Summe
Pfeil 1.1.1 UNIX
Pfeil 1.1.2 GNU
Pfeil 1.1.3 Linux
Pfeil 1.1.4 Die Wurzeln – Debian und GNOME
Pfeil 1.2 Das Linux-Denken
Pfeil 1.2.1 Linux ist ein bisschen wie Windows
Pfeil 1.2.2 Linux ist anders als Windows

»Es gibt kein richtiges Leben im falschen.« (aus dem Buch »Minima Moralia«) Theodor W. Adorno (1903–1969), Philosoh, Soziologe und Komponist

1 Die Wurzeln von Ubuntu

Was Sie in diesem Kapitel erwartet

Wir beginnen mit einem einführenden Kapitel in die Thematik »Linux«. Hier werden Sie die Hintergründe und die Geschichte von GNU, UNIX und Linux kennenlernen und näher betrachten. Des Weiteren gehört hierzu auch eine nüchterne Analyse der Vor- und Nachteile von Linux-basierten Systemen. Wir werden uns etwas näher mit den Grundgedanken von Open Source beschäftigen und die Philosophie dahinter beleuchten. In diesem Kapitel sind Sie genau richtig, wenn Sie einige Begrifflichkeiten aus der Welt der freien Software lernen möchten. Sätze wie »Linux ist eigentlich nichts anderes als GNU/UNIX mit einem Kernel namens Linux.« werden Ihnen nach dem Lesen dieses Kapitels schon viel verständlicher sein. Diese kleine Einführung in Linux erhebt keinen Anspruch auf Vollständigkeit, sie soll lediglich einen ersten Überblick über die Materie geben.

Benötigtes Vorwissen

Es sind keine Vorkenntnisse nötig.


Rheinwerk Computing - Zum Seitenanfang

1.1 Mehr als die Summe Zur nächsten ÜberschriftZur vorigen Überschrift

Wenn Sie Ubuntu installieren, wird nicht nur das Betriebssystem an sich installiert. Schon bei einer Standardinstallation wird eine Menge weiterer Software mitinstalliert, beispielsweise ein Office-Paket oder ein Bildbearbeitungsprogramm. Dies ist man nicht gewohnt, wenn man vorher nur Microsoft Windows kannte. Sie haben mit einer solchen Installation schon weitaus mehr auf Ihrem Computer als »nur« Linux. Vereinfach gesagt besteht Ubuntu aus:

1. Linux
Dies ist der eigentliche Betriebssystemkern und somit die Basis von Ubuntu. Ich werde hierauf in Abschnitt 1.1.3, »Linux«, näher eingehen.
2. GNU
Aus dem GNU-Projekt stammen viele Softwarepakete, ohne die Linux kaum nutzbar wäre und die einen essenziellen Charakter besitzen. Ich werde hierauf in Abschnitt 1.1.2, »GNU«, näher eingehen.

Man spricht aufgrund dieser beiden Komponenten korrekterweise auch häufig von »GNU/Linux«, wenn man von Linux spricht.

Vereinfacht gesagt ist GNU/Linux eine riesige Softwaresammlung und Ubuntu eine Komposition aus Betriebssystem und einigen Anwendungen. Dies bedeutet allerdings nicht, dass jede Software, die bei Ubuntu enthalten ist, auch aus dem GNU-Projekt stammt. Tatsache ist, dass der Großteil der heute für Linux verfügbaren Software nichts mehr mit dem eigentlichen GNU-Projekt zu tun hat.

Beginnen möchte ich dieses Kapitel aber mit einer Beschreibung von UNIX, ohne das weder GNU noch Linux in ihrer heutigen Form existieren würden.


Rheinwerk Computing - Zum Seitenanfang

1.1.1 UNIX Zur nächsten ÜberschriftZur vorigen Überschrift

Linux hat das UNIX-Betriebssystem zum Vorbild. Während Microsoft Windows ein relativ junges System ist – das erste Windows erschien 1985 –, reicht die Geschichte von UNIX bis ins Jahr 1965 zurück. Es hat somit inzwischen eine über 40-jährige Entwicklungsgeschichte hinter sich. UNIX ist demnach ein recht altes Betriebssystem. Es besitzt seit seinen Anfängen aber wichtige Funktionen, die z. B. Microsoft erst sehr viel später in sein Betriebssystem implementiert hat, teilweise sogar bis heute nicht. Ich werde diese Aspekte im Abschnitt »Wichtigste Eigenschaften« noch im Einzelnen beleuchten.

Microsoft und die Sicherheit

Dass Microsoft manche »alten« Funktionen von UNIX nicht in seine Produkte einbaut, hat den Grund, dass Microsoft schon immer den Fokus auf leichte Bedienbarkeit legte und dafür Schwächen bei der Sicherheit in Kauf genommen hat. Dies soll nicht bedeuten, dass Microsoft-Produkte generell unsicher sind. Die Betriebssysteme könnten aber deutlich sicherer sein, wenn man einige Konzepte, wie beispielsweise die strikte Rechtetrennung, von UNIX übernommen hätte.

Ohne einem System zugrunde liegende, vernünftige Sicherheitskonzepte ist ein großer Aufwand nötig, um sich gegen potenzielle Angreifer zu wehren. Die Bedeutung von Firewalls und Virenscannern ist bei Windows überaus groß. Ich werde in Kapitel 20, »Sicherheit«, detaillierter auf dieses Thema eingehen.

MULTICS

Die Wurzeln von UNIX reichen bis ins Jahr 1965 zurück, auch wenn es zu dieser Zeit noch nicht UNIX hieß. Mehrere Firmen (u. a. Bell, General Electric und das MIT) arbeiteten damals an einem Betriebssystem für Großrechner.

Dieses Betriebssystem wurde MULTICS genannt (Multiplexed Information and Computing Service). Leider wurde es nie fertiggestellt. Ken Thompson entwickelte im Jahre 1969 bei den Bell Laboratories in den USA das erste auf Teilen von MULTICS basierende UNIX.

Zu dieser Zeit waren Computer noch sehr groß und entsprechend teuer, aber UNIX war schon damals sehr stabil. Noch heute läuft zum Beispiel das gesamte Telefonnetz der USA auf UNIX-Servern.

C

UNIX wurde zu Beginn vollständig in einer maschinennahen Assembler-Sprache geschrieben, bevor es ab 1971 in die Hochsprache C umgeschrieben wurde. Im Übrigen war das Hauptanliegen von Ken Thompson, ein raumfahrtbezogenes Programm zu entwickeln, das z. B. Orbitberechnungen für Satelliten beherrschte. Zu dieser Zeit stand nämlich das Apollo-Raumfahrtprogramm der USA im Mittelpunkt des öffentlichen Interesses.

Der UNIX-Kernel wurde 1973 komplett neu in C geschrieben. C hat den Vorteil, dass man nur einen Übersetzer für eine neue Hardware-Plattform braucht, um das System mit relativ wenigen Änderungen an eine neue Umgebung anpassen zu können. Dadurch wurde UNIX sehr gut portierbar und auf verschiedenen Hardware-Plattformen überaus leistungsfähig.

Der Name »UNIX«

Das System hieß in Anspielung auf das »Multics«-System ursprünglich »Unics«; der Name wurde später zu »Unix« abgewandelt. Heute wird der Name auch als Uniplexed Information and Computing Service interpretiert. Dies ist allerdings eine nachträgliche Interpretation, ein sogenanntes Backronym. Historisch gesehen ist »Unix« die ältere Schreibweise, die Schreibweise »UNIX« tauchte erst viel später auf.

Kostenlose Verteilung

Die Verbreitung des Systems erfolgte zu Beginn seiner Entwicklung ausschließlich im universitären Bereich, indem es kostenlos an wissenschaftliche Einrichtungen verteilt wurde. Dadurch entstanden viele verschiedene Derivate, da es von nun an von vielen Usern parallel weiterentwickelt wurde. Erst 1982 begannen Firmen wie Hewlett Packard, IBM oder Sun mit dem Vertrieb kommerzieller UNIX-Systeme.

Schaffung von Standards

Die parallele Entwicklung verschiedener UNIX-Systeme führte zwangsläufig zu Inkompatibilitäten, und man entschloss sich zu Beginn der 1990er-Jahre, einheitliche Standards zu schaffen, um die Weiterentwicklung von UNIX zu einem konvergenten Betriebssystem zu fördern. Hierbei arbeitete man eng mit Institutionen wie dem Institute of Electrical and Electronic Engineering (IEEE) und dem American National Standards Institute (ANSI) zusammen.

POSIX (Portable Operating System Interface), ein Gremium des IEEE, hatte hierbei die Aufgabe, Schnittstellenstandards für alle Aspekte der Betriebssystemumgebung festzulegen. Zu dieser Organisation gehört auch X/Open, das sich um die Grundlagen einer gemeinsamen Anwendungsumgebung kümmert. Es unterstützt POSIX und das X-Window-System des MIT.

SVR5 und Quellcode

Die Weiterentwicklung von UNIX lief nach der Schaffung von Standards sicher und kontinuierlich weiter. Inzwischen hat UNIX die aktuelle Versionsbezeichnung »System V Release 5« (SVR5) erreicht.

Die Rechte am Quellcode von UNIX liegen laut eines Gerichtsbeschlusses bei der Software-Firma Novell, die Rechte am Warenzeichen dagegen bei der Open Group, dem Zusammenschluss der Open Software Foundation und von X/Open.

Wichtigste Eigenschaften

Stichwortartig sollen hier die wichtigsten Aspekte eines UNIX-Systems betrachtet werden. Diese Aufzählung erhebt keinen Anspruch auf Vollständigkeit, sollte aber dennoch zur ersten Orientierung hilfreich sein.

  • Dialogsystem
    Dass UNIX ein Dialogsystem ist, mag in der heutigen Zeit als nicht sehr spektakulär gelten, war in der Zeit der Entstehung von UNIX aber durchaus etwas Neues. Der Dialog bedeutet im wahrsten Sinne des Wortes eine Kommunikation, bei der der PC nicht nur auf Eingaben reagiert, sondern auch durch Hinweise und Rückmeldungen Informationen an den Benutzer zurückgibt.
  • Multi-User/Multi-Tasking-Betriebssystem
    Multi-User bedeutet, dass an einem Unix-System gleichzeitig mehrere Benutzer arbeiten können. Multi-Tasking dagegen bedeutet, dass jeder dieser Benutzer mehrere Programme parallel ablaufen lassen kann. Eine Verknüpfung dieser beiden Fähigkeiten ist möglich – so können mehrere Benutzer parallel jeweils verschiedene Anwendungen laufen lassen. Diese Eigenschaft ist eine direkte Eigenschaft des Kernels und wird beschrieben.
  • Das klingt für Sie selbstverständlich? Nun, das System aus dem Hause Microsoft beherrscht diese uralte Technik immer noch nicht reibungslos.
  • Virtuelles Speicherkonzept
    Jede noch so umfangreiche Anwendung kann bei einem Unix-System auf relativ klein dimensionierter Hardware laufen – die sogenannte »virtuelle Speicheradressierung« macht's möglich. Hierbei werden erst zur Laufzeit einer Anwendung die virtuellen Adressen in physikalische Adressen umgesetzt.
  • Pipe-Konzept
    Die Ausgabedaten eines Prozesses können unmittelbar als Eingabedaten einem anderen Prozess übergeben werden.
  • Das Besondere hierbei ist, dass die Ausgabe eines Programms direkt an ein anderes Programm weitergeleitet wird. So kann man z. B. mit dem Befehl
user$ ls | more
  • die Ausgabe des Befehls ls (listing) an das Programm more weitergeben. Die Folge ist, dass Sie die Ausgabe von ls seitenweise angezeigt bekommen.
  • Hierarchische Dateiverwaltung
    Wie auch bei anderen Betriebssystemen ist die Dateistruktur baumartig und somit hierarchisch aufgebaut. Von einer Wurzel aus verzweigen sich alle Verzeichnisse wie bei einem Baum. Diese Struktur bietet eine bessere Übersichtlichkeit und leichtere Dateiverwaltung.
  • Shells
    Die kommando-orientierte Interaktion mit dem System wird über Shells abgewickelt. Sie bieten vielfältige Möglichkeiten für die Programmierung und Automatisierung von Vorgängen.
  • C
    Die Sprache C kombiniert die Effizienz einer Assemblersprache mit den Steuerstrukturen moderner Sprachkonzepte. Heute sind mehr als 95 % aller Anwendungen in C geschrieben.
  • Integration
    UNIX ist einfach in Datennetze zu integrieren. Alle Funktionen für die Integration in Datennetze sind bereits in UNIX implementiert. Die Netzwerkfähigkeit ist eine der großen Stärken des UNIX-Systems.
  • Skalierbarkeit
    UNIX kann Rechner unterstützen, die einen oder mehrere Prozessoren besitzen. Die Leistungsfähigkeit dieser Multiprozessorsysteme steigt dabei fast linear an. Durch ein Cluster, also die Vernetzung von Rechnerknoten, kann die Leistung eines UNIX-Systems noch erheblich gesteigert werden.

Gerade die letztgenannten Eigenschaften sind der Grund für die überragende Stellung von UNIX im Serverbereich. Aber auch im Bereich der rechenintensiven Anwendungen hat sich UNIX etabliert. So wurden Trickfilme wie »Toy Story« und »Das große Krabbeln« unter Verwendung von UNIX erschaffen, aber auch viele Spezialeffekte für Filme wie »Titanic«. Des Weiteren laufen viele CAD-Systeme unter UNIX.

Supercomputer

Im Bereich der Supercomputer hält UNIX eine Monopolstellung. Eine aktuelle Liste der 500 stärksten Supercomputer finden Sie auf der Website www.top500.org. Im Desktop-Bereich befindet sich UNIX seit Anfang der 90er-Jahre langsam, aber kontinuierlich auf dem Vormarsch, nicht zuletzt aufgrund der steigenden Verbreitung von Linux. Von einem der jüngsten Anläufe zur Eroberung des Desktops handelt dieses Buch.


Rheinwerk Computing - Zum Seitenanfang

1.1.2 GNU Zur nächsten ÜberschriftZur vorigen Überschrift

GNU ist ein rekursives Akronym von »GNU's Not Unix« und bezeichnet ein vollständig freies Betriebssystem, das sich seit 1983 in der Entwicklung befindet.

Historie

GNU ist Teil des GNU-Projekts, das 1983 von dem Physiker Richard Matthew Stallman gegründet wurde und 1984 seine Arbeit aufnahm. Richard Stallman arbeitete zuvor am Massachusetts Institute of Technology (MIT) und erlebte zu dieser Zeit den kommerziellen Aufschwung von UNIX-Systemen mit. Firmen begannen mit der Entwicklung proprietärer Software, deren Quellcode nicht mehr offen einseh- und veränderbar war. Stallman war darüber sehr verärgert und kündigte daher im Januar 1984 seine Stelle am MIT, um sich vollständig dem GNU-Projekt widmen zu können.

Free Software Foundation

1985 wurde die gemeinnützige Free Software Foundation ins Leben gerufen, um freie Software zu fördern und dafür Kapital zusammenzutragen. Die Hauptaufgabe der FSF ist die finanzielle, personelle, technische und juristische Unterstützung des GNU-Projekts. Neben dieser Arbeit bemüht sich die FSF gleichzeitig um allgemeine Beratung, Berichterstattung und Aufklärung rund um freie Software. Am 10. März 2001 wurde die Free Software Foundation Europe gegründet, um die Belange freier Software im europäischen Raum zu vertreten.

Abbildung 1.1 Das Gnu – das Maskottchen von GNU

Das GNU-Betriebssystem spielt durch die rasche Verbreitung von Linux heute nur noch eine Nebenrolle. Wesentlich wichtiger sind die Programme, die aus dem GNU-Projekt heraus entstanden sind. Ohne diese wäre Linux und damit auch Ubuntu in der heutigen Form nicht möglich.

GNU sollte eine vollständig freie Alternative zu UNIX darstellen, wurde aber mit einer größtmöglichen Kompatibilität zu UNIX entwickelt, damit man die etablierten UNIX-Programme auch unter GNU verwenden kann.

»Frei« bedeutet hierbei, dass alle Teile des Betriebssystems unter der GNU General Public License (GPL) stehen (siehe unten).

Aufbau

Der Name GNU bezeichnet das Betriebssystem als Ganzes, streng genommen besteht es aber aus mehreren Komponenten:

  • GNU Mach
    Mach ist ein Betriebssystem-Kernel, der an der Carnegie-Mellon Universität in Pittsburgh entwickelt wurde. Mach gehört zur Klasse der Mikrokernel und verrichtet heute nicht nur in GNU, sondern z. B. auch in Apples Betriebssystem Mac OS X seinen Dienst.
  • GNU Hurd
    GNU Hurd ist die Sammlung von Servern und Services, die auf GNU Mach laufen. Diese Services implementieren Dateisysteme, Netzwerkprotokolle, Dateizugriffskontrollen und andere Eigenschaften.
  • GNU-Software
    Aus dem Projekt heraus oder für das Projekt wurde eine Vielzahl von Anwendungen entwickelt (z. B. der C-Compiler gcc, die Bash (Bourne-Again-Shell) und GNU Emacs). Ohne die GNU-Software könnten die meisten Linux-Distributionen nicht in ihrer derzeitigen Form existieren. Auch in Ubuntu finden Sie eine reichhaltige Auswahl an GNU-Software.

General Public License (GPL)

GNU steht unter der General Public License (GPL), dem wohl wichtigsten Dokument der Open-Source-Bewegung. Diese Lizenz beinhaltet ein »Copyleft« (in scherzhafter Analogie zum Copyright), das jedem Benutzer von GPL-lizenzierter Software das Kopieren und Verändern dieser Software ausdrücklich erlaubt. Die einzige Bedingung ist, dass die geänderte Software wieder unter der GPL steht. Diese Bedingung verhindert die Entstehung von proprietärer Software aus freier Software heraus.

»Die meisten Lizenzen für Software und andere nutzbare Werke sind daraufhin entworfen worden, Ihnen die Freiheit zu nehmen, die Werke mit anderen zu teilen und zu verändern. Im Gegensatz dazu soll Ihnen die GNU General Public License die Freiheit garantieren, alle Versionen eines Programms zu teilen und zu verändern. Sie soll sicherstellen, dass die Software für alle ihre Benutzer frei bleibt. Wir, die Free Software Foundation, nutzen die GNU General Public License für den größten Teil unserer Software; sie gilt außerdem für jedes andere Werk, dessen Autoren es auf diese Weise freigegeben haben. Auch Sie können diese Lizenz auf Ihre Programme anwenden.« (Vorwort der GPL, inoffizielle deutsche Übersetzung der Version 3)

Im Jahr 2001 bezeichnete Steve Ballmer (CEO, Microsoft) Linux wegen der Auswirkungen der GPL als »Krebsgeschwür«. Microsoft hat trotz der erklärten Abneigung gegen die Lizenz aber selbst bereits ein Produkt mit GPL-lizenzierter Software verkauft (Microsoft Windows Services for UNIX).

GPL Version 3

Sechzehn Jahre nach Erscheinen der Version 2 im Jahre 1991 erfolgte am 29. Juni 2007 eine Revision der Lizenz mit der Version 3. Richard Stallman sah Änderungsbedarf in den folgenden Bereichen:

  • Den nationalen rechtlichen Besonderheiten sollte mehr Bedeutung eingeräumt werden, ohne dabei die unumstößlichen Grundprinzipien der GPL zu verletzen.
  • Für das Verteilen, Kopieren und Modifizieren von Software sowie für die Regelung von Patenten und anderen rechtlichen Beschränkungen sollten Änderungen eingeführt werden, die die unterschiedlichen Interessen und Standpunkte aller Lizenzteilnehmer vereinen.
  • Das Grundprinzip der GPL ist der freie Austausch von Wissen sowie der freie Zugang zu technischem Wissen und Kommunikationsmitteln. Entwicklungen wie Softwarepatente und Trusted Computing sollten unter diesem Gesichtspunkt behandelt werden.

Freie Software

Ich habe bereits mehrfach den Begriff »freie Software« benutzt, und der geneigte Leser wird sich wundern, warum man mit freier Software trotzdem Geld verdienen kann. Dies ist kein Widerspruch, denn das »frei« in freier Software ist im Sinne von »offen« und nicht im Sinne von »kostenlos« zu verstehen.

Dass eine Software frei ist, bedeutet nicht automatisch, dass sie nicht urheberrechtlich geschützt ist. Des Weiteren ist freie Software nicht zwangsläufig kostenlos. Sie dürfen freie Software kopieren und weitergeben, erweitern oder verändern. Es gibt verschiedene Lizenzen für die Absicherung freier Software. Die bekannteste ist die GPL, die u. a. fordert, dass der Quellcode eines Programms offen einsehbar sein und mitgeliefert werden muss.

Sie erhalten weitere umfangreiche Informationen über GNU auf der Homepage des Projekts http://www.gnu.org und über die Free Software Foundation auf http://www.fsf.org.

Debian GNU/Hurd

1998 rief Marcus Brinkmann das Debian-GNU/Hurd-Projekt ins Leben, um der Entwicklung von GNU neuen Schwung zu verleihen. Durch die Verbindung mit Debian, der größten Linux-Distribution, wurde es möglich, die gesamte Infrastruktur des Debian-Projekts für GNU/Hurd nutzbar zu machen.

Etwa 45 % der ca. 15.000 im offiziellen Debian-Archiv enthaltenen Pakete wurden bislang erfolgreich für Debian GNU/Hurd übersetzt. Im ersten Halbjahr 2005 konnten große Applikationen wie KDE und GNOME nach Debian GNU/Hurd portiert werden. Von Debian GNU/Hurd wird zurzeit etwa halbjährlich ein Schnappschuss in Form von CD-ROMs veröffentlicht. Die Installation, Benutzung und Administration des Systems unterscheidet sich, abgesehen von vorhandenen Einschränkungen, kaum von Debian GNU/Linux. Soundkarten sowie moderne Peripherie-Geräte via USB, Firewire, Bluetooth und eine automatische Hardware-Erkennung (Hotplug) werden zurzeit noch nicht unterstützt, auch fehlt die Unterstützung für zahlreiche Dateisysteme (Quelle: Wikipedia).


Rheinwerk Computing - Zum Seitenanfang

1.1.3 Linux Zur nächsten ÜberschriftZur vorigen Überschrift

An dieser Stelle kommen wir endlich zu »Linux«, der wichtigsten Grundlage von Ubuntu und vielen anderen Linux-Distributionen.

Das Jahr 1991 war die Geburtsstunde von Linux. Ein junger finnischer Informatikstudent namens Linus Benedict Torvalds (siehe Abbildung 1.2) entwickelte einen eigenen Betriebssystemkern, weil er mit dem von ihm eingesetzten MINIX nicht zufrieden war. Er wollte vor allem die Leistung der damals weit verbreiteten 80386-Prozessoren ausnutzen. Dies konnte MINIX seiner Meinung nach nicht leisten.

Zu diesem Zweck benutzte er freie Software, die im Rahmen des GNU-Projekts zur Verfügung stand, z. B. den GNU-C-Compiler (gcc). Des Weiteren legte er Wert darauf, dass auch Linux den POSIX- und X/Open-Standards entsprach. Richard Stallman und die Free Software Foundation begründeten die Philosophie und die Community, aus der heraus Projekte wie Linux entstanden. Torvalds bezeichnete Stallman als den »großen Philosophen«, während er sich selbst als Ingenieur betrachtet.

Das Projekt startet

Hier sehen Sie einen Auszug aus dem Posting von Linus Torvalds vom 1. August 1991:

From: torvalds@klaava.Helsinki.FI
Newsgroups: comp.os.minix
Subject: What would you like to see most in minix?
Summary: small poll for my new operating system
Date: 25 Aug 91 20:57:08 GMT
Hello everybody out there using minix – I'm doing a (free) operating system
(just a hobby, won't be big and professional like gnu) for 386(486) AT clones.
This has been brewing since april, and is starting to get ready. I'd like any
feedback on things people like/dislike in minix, as my OS resembles it
somewhat (same physical layout of the file-system (due to practical reasons)
among other things).
I've currently ported bash(1.08) and gcc(1.40), and things seem to work. This
implies that I'll get something practical within a few months, and I'd like
to know what features most people would want. Any suggestions are welcome,
but I won't promise I'll implement them :-)
Linus (torvalds@kruuna.helsinki.fi)
PS. Yes – it's free of any minix code, and it has a multi-threaded fs. It is
NOT portable (uses 386 task switching etc), and it probably never will
support anything other than AT-harddisks, as that's all I have :-(.

Ein modifiziertes UNIX

Linux ist im Prinzip nur ein modifiziertes UNIX, daher gelten die für UNIX beschriebenen Eigenschaften (Vorteile, Struktur usw.) ebenso für dieses Betriebssystem. Es ist modular aufgebaut, d. h., es besteht aus mehreren Komponenten, die sich theoretisch nach Belieben auswechseln lassen. Explizit bedeutet dies, dass Sie nicht nur wichtige Elemente des Betriebssystems, beispielsweise die grafische Oberfläche, austauschen können – Sie haben, wenn Sie dies wünschen, sogar Einfluss auf die Zusammensetzung des Kernels selbst.

Modularität

Linux »umfasst« grundsätzlich erst einmal nur den reinen Textmodus, d. h. die direkte Kommunikation mit dem System über die Konsole. Wenn Sie unter Linux eine grafische Benutzeroberfläche haben möchten, muss ein sogenanntes X-Window-System installiert und gestartet werden.

Dieses X-Window-System ist client/server-basiert. Der X-Server kümmert sich hierbei um die Steuerung der angeschlossenen Eingabegeräte (z. B. Maus und Tastatur) und die Bildschirmausgabe. Die X-Clients sind die Programme, die Sie auf Ihrer grafischen Oberfläche sehen können,z. B. ein Textverarbeitungsprogramm. Die Aufteilung in Server und Client hat den großen Vorteil, dass die Client-Programme lokal, aber auch entfernt auf einem anderen Rechner installiert sein können. Durch eine Netzwerkverbindung können Sie trotzdem grafisch arbeiten, als ob beides auf dem gleichen PC installiert wäre.

Keine Angst, in der Regel sind ein solcher X-Server sowie die nötigen X-Clients in alle Distributionen (auch in Ubuntu) integriert und werden generell mitinstalliert und automatisch gestartet.% In diesem Zusammenhang sind Ihnen vielleicht schon einmal Begriffe wie Xfree86, Xorg oder neuerdings auch XGL oder AIGLX begegnet, die alle jeweils einen X-Server bezeichnen.

Sammlung von Funktionen

Grundsätzlich ist ein X-Server nur eine Sammlung von Funktionen zur grafischen Darstellung von Informationen. Grafische Benutzeroberflächen wie GNOME oder KDE bauen hierauf auf und sind somit einzeln installier- und austauschbar. Eines der wichtigsten Elemente einer grafischen Benutzeroberfläche ist und bleibt die Shell. Über die Shell haben Sie mithilfe von Kommandos direkten Zugriff auf Ihr Betriebssystem, ohne Umwege über die dazwischen liegende grafische Benutzeroberfläche.

Auf den X-Server und die neuesten Errungenschaften wie dreidimensionale Desktops gehe ich in Abschnitt 17.3.5, »Der X-Server«, genauer ein.

Freie Software und Demokratie

An dem obigen Beispiel kann man einen großen Vorteil freier Software erkennen. Bei freier Software ist es keiner Firma möglich, mit Marktmacht, Geld oder Einfluss die Verwendung einer bestimmten Software zu erzwingen. Über 90 % aller Linux-Entwickler arbeiten ehrenamtlich in ihrer Freizeit und sind somit nur den Kontrollprinzipien der Entwicklergemeinde unterworfen. Wenn die Mehrheit der Entwickler mit einer Entscheidung nicht zufrieden ist, wird diese Idee verworfen – es entstehen Ableitungen und Parallelentwicklungen.

Auf den ersten Blick mag dies verwirrend und ineffektiv erscheinen. Sie können ein solches Vorgehen aber am ehesten mit demokratischen Strukturen vergleichen. Eine solche Form der Organisation ist selbstverständlich nicht perfekt, aber sie ist die beste, die wir uns vorstellen können.


Rheinwerk Computing - Zum Seitenanfang

1.1.4 Die Wurzeln – Debian und GNOME topZur vorigen Überschrift

Viele Ubuntu-Entwickler kommen aus den Debian- und GNOME-Communitys.

Debian

Debian gilt zu Recht als stabil und zuverlässig. Die Debian-Entwickler sind allerdings sehr restriktiv bezüglich Neuerungen und Veränderungen am System. Dadurch ist Debian wohl eine der stabilsten Linux-Distributionen geworden. Das hat jedoch seinen Preis. Das System ist schon lange nicht mehr up-to-date, was z. B. die Usability (Benutzerfreundlichkeit) angeht. Auch wenn dies hartgesottene Linux-Fans nicht stört, so ist es gerade für Neueinsteiger eine große Hürde. Ubuntu geht hier einen Mittelweg. Es basiert auf der sicheren Architektur von Debian und verbindet Debian mit neueren Softwarepaketen.

Abbildung 1.2 Linus Torvalds, der »Erfinder« von Linux, mit einem Shirt, auf dem das Logo von Debian zu sehen ist (Quelle: http://pdg86.wordpress.com/2009/12/03/linus-with-a-debian-t/)

Debian ist eine der ältesten und beliebtesten Distributionen. Während die meisten großen Distributionen von kommerziellen Firmen ins Leben gerufen wurden (SUSE, RedHat), ist Debian eine community-basierte Distribution. Für dieses Projekt haben sich viele engagierte Linux-Anwender zusammengesetzt und ein Linux kreiert, das Wert auf größtmögliche Stabilität legt. Das Debian-Projekt wurde offiziell am 16. August 1993 von Ian Murdock gegründet.

Die Entwicklung dieser neuen Distribution begann als offenes Projekt, ganz im Sinne des GNU- oder auch des Linux-Kernel-Projekts. Dieses Kriterium erfüllte damals keine andere Distribution. Debian war darin somit ein Vorreiter unter den Distributionen.

Der Name

Der Name »Debian« stammt vom Schöpfer der Distribution, der ihn aus dem Namen seiner Frau Debra und seinem eigenen Vornamen bildete (Deb-Ian). Die offizielle englische Aussprache für den Namen ist: »deb'ee'n«.

Debian war und ist ein Vorreiter in der Entwicklung von zukunftsweisenden Anwendungen. In diesem Zusammenhang sei nur auf das professionelle Paketmanagement apt-get hingewiesen, auf das ich in Abschnitt 18.5, »Advanced Packaging Tool (APT)«, eingehen werde. Ubuntu verwendet das gleiche Paketformat (.deb) wie Debian, und auch sonst stehen sich beide Projekte sehr nahe. Alle Änderungen und eventuelle Verbesserungen an Debian-Paketen, die in Ubuntu vorgenommen werden, werden sofort an das Debian-Projekt weitergegeben. Zahlreiche Entwickler von Ubuntu sind ebenfalls im Debian-Projekt aktiv und betreuen dort wichtige Pakete.

Es gibt zahlreiche Fragen und Missverständnisse bezüglich der Verbindung zwischen Debian und Ubuntu. Viele dieser Fragen hat Mark Shuttleworth persönlich beantwortet. Sie finden seine Antworten in einem Interview, das Sie in einer deutschen Übersetzung nachlesen können.

Debian – ein Supermarkt?

Zeitgleich mit dem wachsenden Erfolg von Ubuntu mehren sich seit Langem kritische Stimmen, die behaupten, dass Ubuntu sich bei Debian wie in einem Supermarkt bedient. Genauer gesagt wird Ubuntu vorgeworfen, dass seine Entwickler sich Pakete nehmen würden, ohne dafür etwas zurückzugeben. Nach Ansicht der Kritiker führt solch ein Verhalten zu einem langsamen »Ausbluten« von Debian.

Oftmals werden derartige Diskussionen sehr emotional geführt. Nachvollziehen kann man das nur, wenn man bedenkt, dass viele Entwickler Linux als Hobby betreiben und dementsprechend viel Energie und Zeit investieren.

Man kann über das Vorgehen der Ubuntu-Entwickler geteilter Meinung sein. Trotzdem sollte man sich einige Fakten vergegenwärtigen:

  • Ubuntu hält sich strikt an die Regeln der Open-Source-Gemeinde. Alle Software-Pakete, die von Debian übernommen werden, enthalten beispielweise den Verweis auf den ursprünglichen Autor. Die ursprüngliche Lizenz (meistens GPL) und deren Bedingungen bleiben gewahrt.
  • Die GPL verbietet unter keinen Umständen die Adaption von Software-Paketen, solange die Bedingungen der GPL eingehalten werden.
  • Einer der Grundgedanken von Open Source im Allgemeinen und der GPL im Speziellen ist der freie Zugang zu Wissen. Damit einhergehend sollte auch jede Software zugänglich, einseh- und veränderbar sein.
  • Laut GPL ist niemand dazu verpflichtet, dem ursprünglichen Projekt, aus dem die Pakete stammen, etwas zurückzugeben.

Gerade der letzte Punkt stößt verständlicherweise auf großes Unbehagen. Viele Projekte bedienen sich bei Debian, aber keines hatte bisher auch nur annähernd einen derartigen Erfolg wie Ubuntu. Einige hochkarätige Debian-Entwickler sind abgewandert und bei Canonical, der Firma hinter Ubuntu, fest angestellt. Die beiden Punkte zusammen geben den ursprünglichen Bedingungen der GPL einen faden Beigeschmack.

Ohne Debian kann Ubuntu nicht existieren. Jeder Entwicklungszyklus einer neuen Ubuntu-Version beginnt mit dem sogenannten »Upstream«, dem Bedienen bei Debian. In dieser Zeit werden Tausende Pakete von Debian angenommen und an die Ubuntu-Bedürfnisse angepasst. Canonical gibt Debian Verbesserungen an Paketen zurück, die sogenannten »Patches«.

Debian und Xorg

Ubuntu nimmt aber nicht nur Pakete von Debian, sondern stellt diese selbstverständlich auch wieder zur Verfügung. So hat Debian 2005 den Wechsel des X-Servers von Xfree86 auf Xorg durchgeführt. Die hierzu nötigen Pakete wurden von Ubuntu übernommen, da dieser Umstieg in Ubuntu bereits vollendet war. Dies ist selbstverständlich nur ein Beispiel für das Mitwirken von Ubuntu bei Debian.

GNOME

GNOME hat eine herausragende Stellung bei Ubuntu. Es wird als Standard-Desktop installiert, und neue Versionen von Ubuntu werden synchron mit den neuen Versionen des GNOME-Projekts veröffentlicht, das ebenfalls alle sechs Monate eine neue Version herausbringt. Des Weiteren wird dem KDE-Projekt eine hohe Bedeutung eingeräumt und ein Ubuntu mit KDE als Standard-Desktop veröffentlicht. Dieses Ubuntu erschien erstmals im April 2005 unter dem Namen »Kubuntu«. In Kapitel 8 erfahren Sie mehr über Kubuntu.

Moderne Arbeitsumgebungen

Auf dem X-Server bauen zwei große moderne Arbeitsumgebungen auf: KDE und GNOME. Es handelt sich bei diesen beiden Projekten nicht einfach nur um verschiedene Oberflächen – die Unterschiede sind vielfältiger. In beiden Arbeitsumgebungen sind eine Vielzahl von verschiedenen Programmen integriert.

Das bedeutet aber nicht, dass Sie diese nicht austauschen können. Der Vorteil ebenjener Art von Bündelung besteht vielmehr darin, dass diese Programme sehr gut aufeinander abgestimmt sind.

In der Praxis werden Sie höchstwahrscheinlich nicht daran vorbeikommen, Programme beispielsweise unter GNOME einzusetzen, die eigentlich aus der KDE-Welt stammen. Lassen Sie sich aber nicht durch derartige Lagerzuordnungen verwirren. Sie werden feststellen, dass die Unterschiede nicht besonders groß sind.

Linus und GNOME

Gerade seine »Einfachheit« wird GNOME oftmals zum Vorwurf gemacht. Der Streit über fehlende Features mündete im Jahr 2005 sogar in einer Aussage von Linus Torvalds, in der er die User aufforderte, KDE statt GNOME zu benutzen. Es entbrannte eine lange Diskussion zwischen Verfechtern beider Lösungen, da sich Kritiker von GNOME durch die eingeschränkte Auswahl bevormundet fühlten. Anhänger von GNOME hingegen argumentierten, dass GNOME die Benutzer nicht überfordern will und eine Desktop-Umgebung so einfach wie möglich zu bedienen sein sollte.

GNOME hat diese Kritik angenommen und hat 2006 in der Version 2.16 den von Torvalds kritisierten Druckdialog überarbeitet. In seiner jetzigen Form bleiben kaum Wünsche offen, wobei anzumerken ist, dass man sämtliche Funktionen von Linux selbstverständlich auch über ein Terminal erreichen kann.

Derivate

Inzwischen gibt es eine wachsende Anzahl von Derivaten zu Ubuntu. Die drei bedeutendsten Derivate unterscheiden sich in der Wahl der Arbeitsumgebung:

  • Ubuntu mit GNOME (siehe Kapitel 7, »Erste Schritte«)
  • Kubuntu mit KDE und Xubuntu mit Xfce (siehe Kapitel 8, »Kubuntu und Xubuntu«)

Der Begriff »Derivat« (derivativ, lateinisch von derivare, ableiten) bezeichnet eine Ableitung.

1983 führte die Nichtverfügbarkeit des Quellcodes von UNIX zur Gründung des GNU-Projekts (»Gnu's Not UNIX«). Das Ziel des Projekts war das Erstellen eines freien und UNIX-kompatiblen Systems. GNU besitzt also einen eigenen Quellcode. Die unter der GNU General Public License (GPL) stehenden Derivate sind daher konsequent von den UNIX-Derivaten zu unterscheiden.

Das Gleiche gilt für Systeme, die auf Linux aufbauen und ebenfalls häufig Software des GNU-Systems einsetzen: Der Quellcode beider Teilbereiche GNU und Linux (weswegen solche Systeme von einigen auch GNU/Linux genannt werden) ist vollständig frei. Entsprechende Derivate wie die Linux-Distributionen enthalten ebenfalls große Mengen freier Software oder bestehen gänzlich aus freier Software.

GNOME

Ubuntu wurde aus mehreren Gründen mit GNOME als Standard entworfen:

  • GNOME hat im Gegensatz zu allen anderen Arbeitsumgebungen einen regelmäßigen halbjährlichen Veröffentlichungszyklus, der dem Bestreben entgegenkommt, Ubuntu regelmäßig zu aktualisieren.
  • GNOME hat durch seine lange Entwicklungszeit und die frühe Unterstützung durch Firmen wie RedHat eine große Stabilität erreicht. Dies soll aber keineswegs bedeuten, dass KDE grundsätzlich instabiler wäre. GNOME legt weniger Wert auf sogenannte »Features« und mehr Wert auf Einfachheit.
  • GNOME ist »kompakter« und ressourcenschonender als KDE, und die Hardware-Anforderungen können bei GNOME geringer sein. Dieser Punkt ist für Ubuntu wesentlich, wie Sie später noch sehen werden. Im Übrigen sind andere Window-Manager wie Xfce oder Fluxbox noch einmal deutlich ressourcenschonender als GNOME.
  • Einige Ubuntu-Entwickler waren aus der GNOME-Gemeinschaft herübergewechselt. Diese Tatsache legte den Schritt nahe, sich zu Beginn auf die Arbeitsumgebung GNOME als Standard zu einigen. Ein neues Release von Ubuntu erscheint also etwa ein bis zwei Monate nach einer neuen GNOME-Version.

KDE und Kubuntu

Vor allem in Deutschland, wo die grafische Arbeitsumgebung KDE sehr beliebt ist, wurde der Ruf nach einem Ubuntu mit KDE als Standardarbeitsumgebung schnell lauter. Obwohl es eigentlich kein Problem war, KDE über die offiziellen Download-Quellen nachzurüsten, entstand relativ schnell das Kubuntu-Projekt. Schon mit der zweiten Ubuntu-Version, dem »Hoary Hedgehog«, entstand parallel ein eigenständiges Kubuntu.

Den Eigenheiten von Kubuntu habe ich einen eigenen Abschnitt gewidmet.

Inzwischen ist Kubuntu recht beliebt geworden, wird aber wohl vorerst nicht in die »Top Ten» aufsteigen: Es rangierte im April 2010 in der Liste der beliebtesten Distributionen auf Rang 19 (was gegenüber dem vergangenen Jahr einen Abstieg um vier Plätze bedeutet), noch weit vor anderen Linux-Distributionen wie RedHat, allerdings auch weit hinter Ubuntu (Rang 1).

Die deutsche Kubuntu-Gemeinschaft trifft sich auf www.kubuntu-de.org oder in den zahlreichen anderen Foren rund um Ubuntu (siehe Kapitel 29, »Hilfe«).

Einige der oben genannten Vorteile von GNOME bedeuten nicht automatisch, dass KDE die schlechtere Wahl wäre:

  • KDE ist wesentlich verwandlungsfreudiger und »verspielter« als GNOME. Es lässt sich mithilfe von Bordmitteln und eingebauten Features einfacher dem persönlichen Geschmack anpassen. Ich werde darauf später in Abschnitt 8.1, »Kubuntu«, noch genauer eingehen.
  • Seit seinem Erscheinen verfügt KDE über eine wesentlich größere Dynamik als konkurrierende Projekte. Neue Programme und Features finden sehr schnell Einzug in diese Oberfläche. GNOME ist weitaus träger, dadurch aber auch wesentlich berechenbarer.
  • Das KDE-Projekt hat sich inzwischen auch für eine regelmäßige Veröffentlichung entschieden und arbeitet an der Umsetzung.

Xfce und Xubuntu

Kubuntu ist das bedeutendste Derivat zu Ubuntu, aber nicht das einzige. Ein recht junger Spross der Ubuntu-Familie ist Xubuntu, ein Ubuntu mit der Arbeitsumgebung Xfce als Standard.

Window-Manager oder Desktop Environment?

Schon lange schwelt die Diskussion darüber, ob Xfce nur ein Window-Manager oder eine komplette Arbeitsumgebung ist. Fakt ist, dass Xfce, um eine Arbeitsumgebung zu sein, eigene Programme besitzen muss. Diese waren in der Vergangenheit nur rudimentär vorhanden.

In letzter Zeit ist hier aber sehr viel Bewegung zu beobachten, und so hat Xfce inzwischen z. B. einen eigenen, mächtigen Dateimanager namens Thunar. Man kann also sagen, dass sich Xfce langsam, aber sicher zu einer »vollwertigen« Arbeitsumgebung wie GNOME und KDE entwickelt.

Xfce hat den Ruf, besonders schonend mit der Hardware und sehr sparsam mit der Leistung Ihres Computers umzugehen. Zudem ist es relativ spartanisch und kann dadurch mit einer gewissen Eleganz punkten. Xubuntu erhält seit Juni 2006, dem Erscheinen von Xubuntu 6.06, offizielle Unterstützung durch Canonical, die Firma hinter Ubuntu.

Offiziell oder nicht?

Auch wenn Canonical stets den offiziellen Charakter von Xubuntu betont, ist der Status der offiziellen Unterstützung unklar. Canonical bietet angeblich kommerziellen Support für Xubuntu an, stellt aber keine Entwickler ein, um pünktlich eine LTS-Version für den professionellen Einsatz anbieten zu können. So war Xubuntu 8.04 zunächst keine LTS-Version, sondern erhielt diesen Zusatz erst mit dem »Point-Release« 8.04.1.

Von daher bleibt festzuhalten, dass die Bezeichnung »offiziell« mehr verspricht, als sie halten kann. Im Übrigen verhält es sich bei Kubuntu zumindest bei der Version 8.04 ähnlich. Auch hier gibt es von Kubuntu keine LTS-Version. Auf www.distrowatch.com befindet sich Xubuntu derzeit auf Platz 33 (Stand April 2010).


Mehrere Arbeitsumgebungen oder Derivate parallel installieren

Für welche Arbeitsumgebung Sie sich letztendlich entscheiden, hängt einzig und allein von Ihrem persönlichen Geschmack ab. Alle Arbeitsumgebungen haben ihre Vor- und Nachteile. Nutzen Sie doch einen der vielen Vorteile von Linux, und probieren Sie einfach die Ihnen gegebenen Möglichkeiten aus! Das Beste ist: Im Notfall brauchen Sie sich gar nicht zu entscheiden.


Sie können mehrere Arbeitsumgebungen oder verschiedene Versionen von Ubuntu (sogenannte Derivate) auch parallel installieren. Wie Sie diese Konfiguration vornehmen, erfahren Sie beispielsweise:

  • in Abschnitt 8.1, »Kubuntu«, für Kubuntu mit KDE
  • in Abschnitt 8.2, »Xubuntu«, für Xubuntu mit Xfce

Freiheit

Linux ist eine gute Wahl, weil es frei ist! Das hört sich gut an, aber was steckt dahinter? Für die Verwendung von Linux benötigen Sie keine Lizenzen. Sie brauchen somit keine Lizenzgebühren zu zahlen, egal für welchen Zweck Sie Linux benutzen. Ein kleiner positiver Nebeneffekt ist, dass Linux hierdurch normalerweise wesentlich günstiger ist als andere Betriebssysteme. Oftmals ist GNU/Linux sogar kostenlos. Mit dem Begriff »Freiheit« wird eine Absicht verfolgt, die auch in dem Begriff »Redefreiheit« steckt, nicht aber in »Freibier«.

Offener Quellcode

Aber Sie haben als Benutzer noch viel mehr Freiheiten. Sie können sich (entsprechendes Wissen vorausgesetzt) aktiv an der Entwicklung von Linux beteiligen. Der gesamte Quellcode ist unter den Bedingungen der GPL (GNU General Public License) offen und frei verfügbar. Dieser Quellcode wird entweder gleich mitgeliefert (auf einer separaten CD) oder kann von öffentlichen Servern aus dem Internet bezogen werden. Alle Änderungen, die Sie oder andere User vornehmen, unterliegen wiederum der GPL.

Sie können sich beteiligen

Diese Freiheit hat dazu geführt, dass sich sehr viele Menschen auf der ganzen Welt mit Linux beschäftigen, Fehler in den Programmen suchen und damit Linux und auch andere »freie« Programme immer besser werden lassen.

Wie jedes andere Produkt auch hat Linux aber nicht nur Vor-, sondern auch einige Nachteile. Diese sollen hier nicht verschwiegen werden. Ich möchte im Folgenden versuchen, die Qualitäten von Linux so objektiv wie möglich darzustellen – auch wenn man dem Autor eines Buches über Linux eine gewisse Subjektivität unterstellen kann.

Vor- und Nachteile

Die folgenden Punkte sind aus meiner Sicht die größten Vorteile, die sich durch die Verwendung von Open-Source-Anwendungen im Allgemeinen und Linux im Speziellen ergeben. Es gibt noch eine Reihe weiterer Argumente, die aber teilweise nur für spezielle Systeme gelten.

  • Linux ist Open Source, d. h., der Quellcode liegt offen. Dies hat den Vorteil, dass jedermann den Quellcode auf Schwächen hin untersuchen kann.
  • Linux wird »demokratisch« entwickelt, d. h., dass sich gute Lösungen eher durchsetzen als schlechte (siehe den Abschnitt »Freie Software und Demokratie«).
  • Linux ist ungeheuer flexibel, es läuft auf nahezu allen Computer-Architekturen. Die Spannweite reicht hier von kleinen Handhelds oder Embedded-Systemen über normale PCs, Server und Workstations bis hin zu den sogenannten Supercomputern.
  • Für Linux existiert eine riesige Auswahl an frei erhältlichen Programmen. Gerade Programme, die sich über Jahre halten, haben eine exzellente Qualität erreicht und stehen den kommerziellen Produkten in nichts nach.
  • Der Umgang mit Linux unterliegt keinerlei Lizenzbeschränkungen.
  • Man ist nicht von einem einzelnen Software-Hersteller abhängig.
  • Linux ist äußerst stabil und zuverlässig. Die überwiegende Anzahl der Server im Internet benutzen daher UNIX oder Linux als Basis. Der Anteil von Linux hieran wächst stetig.
  • Linux beinhaltet alle offenen Standards und führt keine proprietären Standards ein, die die Kompatibilität mit anderen Systemen einschränken.
  • Linux bietet von Haus aus eine höhere Sicherheit als andere Betriebssysteme. Durch das Multiuser-Konzept kann jedes Programm nur mit den Rechten ablaufen, die es zum Betrieb benötigt. Der offene Quellcode macht das System durchschaubar und verständlich. Viren und trojanische Pferde sind unter Linux nur sehr schwer zu implementieren, da Sicherheitslücken und Programmierfehler durch die große Anzahl von freiwilligen Helfern sehr schnell entdeckt werden.

Ein paar Nachteile

  • Es kann einige Probleme mit spezieller Hardware geben. Obwohl Linux und Ubuntu eine hervorragende Hardware-Erkennung besitzen, gibt es Hardware, die nicht ohne Weiteres unter Linux läuft. Hierzu zählen einige Scanner, Grafikkarten, Software-Modems und auch Soundkarten. Der Grund für diese teilweise schlechte Unterstützung ist nicht bei Linux zu suchen, sondern vielmehr auf der Seite der Industrie.
  • Manche Firmen verfolgen eine sehr restriktive Politik bezüglich der Offenlegung ihrer Spezifikationen. Ohne diese Kenntnis ist es Glückssache, ob ein Gerät unter Linux läuft oder nicht. Aber keine Sorge: Immer mehr Firmen erkennen den wachsenden Bedarf an Linux-Unterstützung und folgen diesem Ruf. Achten Sie am besten vor dem Kauf von Hardware auf die Linux-Kompatibilität.
  • Es gibt sehr wenige (im Vergleich zu Windows) kommerzielle Spiele, obwohl dies viele Linux-Benutzer wünschen. Allerdings muss man sagen, dass die Zahl der Linux-geeigneten Spiele ebenfalls stetig wächst. Die Spielehersteller scheinen langsam umzudenken. Des Weiteren ist es möglich, mit Emulatoren und Ähnlichem einige Windows-Spiele auch unter Linux zum Laufen zu bekommen.
  • Es gibt nur wenig spezielle und professionelle Software (d. h. mit Support) für Firmen. Eine Lösung dieses Problems ist ebenfalls nur eine Frage der Zeit.
  • Unter Linux sind Sie gerade am Anfang noch abhängiger vom Internet als unter Windows. Richtige Unterstützung in Form von Anleitungen und Dokumentationen in Foren, Newslettern und Ähnlichem gibt es nur online. Allerdings halten Sie gerade eine gedruckte Dokumentation in Ihren Händen. Selbstverständlich benötigen Sie auch eine Internetverbindung für notwendige Updates.
  • Für den Einsatz von Ubuntu brauchen Sie hier nicht zwangsläufig eine sogenannte »Flatrate«, weil Ubuntu stets nur Sicherheitsupdates zur Verfügung stellt und keine Programmaktualisierungen. Andere Linux-Distributionen wie beispielsweise Fedora gehen wesentlich sorgloser mit Ihrer Internetanbindung um. Diese »Sorglosigkeit« liegt darin begründet, dass Fedora ein amerikanisches Projekt ist. In den USA sind Flatrates wesentlich verbreiteter als hier in Europa.

Mit Linux kommen Kreativität und die große Tradition der Communitys, des Gemeinschaftsgefühls, zurück auf Ihren Computer. Lassen Sie sich in den Bann ziehen!

In Abschnitt 1.2, »Das Linux-Denken«, werde ich etwas genauer auf die Unterschiede und Gemeinsamkeiten zwischen Windows und Linux eingehen. Für Einsteiger ist das ein idealer Abschnitt, um mehr über die Besonderheiten von Linux zu erfahren.

Und dieser Pinguin?

Linus Torvalds kündigte im Juni 1996 ein Logo für Linux an: den Pinguin. Entscheidend bei der Auswahl war 1993 ein Aquariumsbesuch in Canberra während einer Auslandsreise nach Australien. Torvalds empfand dort eine starke Sympathie für die sehr kleinen Fairy-Pinguine (Zwergpinguine), von denen ihn einer sogar in die Hand gebissen haben soll. Als er dann 1996 ein Logo suchte, kam ihm dieser Pinguin in den Sinn. Der ursprüngliche Entwurf für TuX erfolgte 1996 durch Larry Ewing mit GIMP, einem freien Bildbearbeitungspaket, das auch bei Ubuntu standardmäßig installiert ist.

Seit 1996 ist der Pinguin TuX das offizielle Maskottchen des Betriebssystems Linux. Der Name wurde von James Hughes als Ableitung von Torvalds UniX vorgeschlagen. Die Entscheidung für den Pinguin fiel neben der schmerzhaften Erfahrung von Linus (s.o.) wahrscheinlich auch aufgrund der Tatsache, dass Pinguine aussehen, als würden sie einen Smoking (engl. tuxedo) tragen. Ein Smoking steht für die Eleganz, die auch das Betriebssystem Linux anstrebt.

Abbildung 1.3 TuX – Das Makottchen von Linux, hier in seiner ursprünglichen Version von Larry Ewing

Und außerdem werden Sie immer wieder bei der Beschreibung von TuX folgenden Satz finden: »Was nicht fliegen kann, kann auch nicht abstürzen.« Wer bei dieser Anspielung an ein Betriebssystem aus dem Hause Microsoft denkt, der liegt wohl nicht allzu falsch.



Ihr Kommentar

Wie hat Ihnen das <openbook> gefallen? Wir freuen uns immer über Ihre freundlichen und kritischen Rückmeldungen. >> Zum Feedback-Formular
<< zurück
  Zum Katalog
Zum Katalog: Ubuntu GNU/Linux

Ubuntu GNU/Linux
Jetzt bestellen


 Ihre Meinung?
Wie hat Ihnen das <openbook> gefallen?
Ihre Meinung

 Buchempfehlungen
Zum Katalog: Ubuntu 14.04 LTS






 Ubuntu 14.04 LTS


Zum Katalog: Linux Handbuch






 Linux Handbuch


Zum Katalog: Raspberry Pi






 Raspberry Pi


Zum Katalog: Ubuntu Server






 Ubuntu Server


Zum Katalog: IT-Handbuch für Fachinformatiker






 IT-Handbuch für
 Fachinformatiker


 Shopping
Versandkostenfrei bestellen in Deutschland und Österreich
InfoInfo




Copyright © Rheinwerk Verlag GmbH 2010
Für Ihren privaten Gebrauch dürfen Sie die Online-Version natürlich ausdrucken. Ansonsten unterliegt das <openbook> denselben Bestimmungen, wie die gebundene Ausgabe: Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte vorbehalten einschließlich der Vervielfältigung, Übersetzung, Mikroverfilmung sowie Einspeicherung und Verarbeitung in elektronischen Systemen.


[Rheinwerk Computing]

Rheinwerk Verlag GmbH, Rheinwerkallee 4, 53227 Bonn, Tel.: 0228.42150.0, Fax 0228.42150.77, service@rheinwerk-verlag.de