Eine neue Version der kommerziellen Amiga- und C64-Emulatoren von Cloanto bringt Kontrollelemente im Vollbild sowie virtuelle Maus und Tastatur.
Hersteller Cloanto hat eine neue Version seiner kommerziellen Retro-Emulations-Software Amiga Forever und C64 Forever für Windows herausgegeben. In Version 8 wurde der virtuelle Spielecontroller aus der vorigen Hauptversion um eine virtuelle Maus und eine virtuelle Tastatur ergänzt – so lässt sich nun etwa der 8-Bit-Cursor mit der Maus ziehen. Die virtuelle Tastatur lässt sich auf Wunsch frei belegen und auch mit Shortcuts versehen.
Vollbild-Kontrollelemente und Kiosk-Modus fürs Museum
Beim Benutzen des Vollbildmodus muss man nun nicht mehr für alle Aktionen zurück zum Fenstermodus wechseln: Kontrollelemente werden über dem Vollbild eingeblendet und erlauben etwa das Wechseln von Disketten-Images. Die neue Hauptversion arbeitet auch mit den Multi-Monitor-Fähigkeiten und den High-DPI-Features zusammen, die Windows 10 mit dem Update vom Oktober 2018 erhalten hat. Daneben gibt es zahlreiche weitere kleine Verbesserungen und wie üblich mehr Tempo und Fehlerbeseitigungen. Wer mehr dazu lesen möchte, sollte sich die detaillierten Release-Notes anschauen. Die vergleichbaren Neuerungen sind auch bei C64 Forever 8zu finden.
Wie der Hersteller außerdem berichtet, habe man einen „Kiosk-Modus“ entwickelt, damit die Software beispielsweise in einem Computer-Museum als Front-end dienen kann.
Jeweils drei Editionen
Amiga Forever 8 gibt es in drei Editionen: Die günstigste Value Edition ist für 9,95 Euro erhältlich, die Plus Edition enthält die Option für ein DVD-Image, und die eher an Sammler gerichtete Premium Edition enthält neben einer Software-Box zusätzlich Filme auf mehreren DVDs. C64 Forever 8 gibt es in einer beschränkten freien Free Express Edition, einer Downloadable Plus Edition für 14,95 Euro sowie einer Boxed Plus Edition mit Schachtel.
Vor dem perfekten Fernsehabend steht ein Überblick über laufendes und kommendes TV-Programm. Aus diesem wählt man bekannterweise seine (oder ihre) Sendungen und Filme, die man vielleicht sehen oder später auch aufnehmen möchte. Um einen Programmüberblick zu kommen, kauft man sich entweder in mehr oder minder regelmäßigen Abständen eine TV-Zeitschrift, schaut im Internet bei den einzelnen Sendern nach, was dort läuft oder schaut in den EPG (electronic Programm Guide = Neudeutsch für Elektrischer Programm Typ) des hauseigenen Smart-TV (neudeutsch für Klevere Glotze).
Einfacher geht das aber mit dem TV-Browser. Das ist ein kostenloses quelloffenes (Open Source) Programm für zumindest Android, Windows und Linux. Für Mac und iOS könnt ihr in den Kommentaren eine kurze Notiz hinterlassen ob es funktioniert.
Die Ersteinrichtung ist etwas langwieriger. Nach der Installation auf dem bevorzugten Endgerät wollen einige Plugins installiert werden. Wer das nicht möchte klickert einfach weiter. Ich habe für mich keine weiteren installiert. Danach ist die Senderauswahl dran. Hier wollen aus massig europäischen und noch internationaleren TV- und Radiosendern diejenigen gewählt werden, die man selbst auch in seinem TV-Gerät programmiert hat. Es ist leicht mühseelig, die Sender zu wählen und in die richtige Reihenfolge zu bringen.
Allerdings gibt es da die Funktion Android-Sync, bei der man sich mit einem Pseudonym und einem Passwort anmelden muss. Man macht die Senderliste dann einmal an einem Gerät der Wahl und danach kann man diese Einstellungen später auch, dann mit jedem anderen Gerät, was man nutzt, synchronisieren. Diese Funktion ist auch als Backup-Funktion nützlich. Neben der erstellten Senderliste, kann man auc Geräteübergreifend Lieblingssendungen verwalten.
Es gibt zahlreiche Plugins, zum Beispiel um mit diesem Programm übers Netzwerk auch Aufnahmen am eigenen Smart-TV, oder einem entsprechend ausgestatteten PC zu starten.
jDownloader
jDownloader gehört zu der Gattung Downloadmanager. Downloadaddressen sammelt man via Zwischenspeicher (STRG+C) entweder aus einem Textbeitrag oder der Adressleiste des bevorzugten Browsers ein. Diese kommen in den sogenannten Linksammler. Von dort aus startet man seine Downloads. Neben Links aus Downloadverzeichnissen lädt jDownloader auch Katzen-Videos von Youtube. Auch wenn ein Download aus mehreren ZIP-Archiven besteht, sucht diese der Downloadmanager und fügt diese in die Downloadliste ein. Bei einem kurzen Test von jDownloader mit den Mediatheken einigter öffentlich-rechtlicher Fernsehsender (ARD, ZDF und so weiter), habe ich festgestellt, daß der jDownloader damit Probleme hat. Die Links, die das Programm benötigt, um downloadbare Inhalte zu finden, scheinen da kodiert zu sein, so daß nur wenig interessantes im Linksammler landet. Dafür habe ich allerdings noch ein weiteres Programmchen parat, was da auch noch Abhilfe schaffen kann.
Mediathek-View
Diesen Tipp habe ich erst kürzlich hereinbekommen. Und zwar handelt es sich um ein Java-Programm (Voraussetzung eine aktuelle Java-Runtime auf dem Windows PC). Nach einem erst Überblicksmäßigen Test dieses feinen Programms, kann ich sagen, daß es die Mediatheken der öffentlich-rfechtlichen Sender durchforstet und deren Inhalte auflistet. Mit einem beispielsweise vorinstalliertem VLC-Player kann man sich diese Beiträge dann ansehen. Es scheint auch recht einfach zu sein, sich Inhalte herunterzuladen. Der Einfachheit halber zitiere ich einmal von der Seite www.mediathekview.de/:
MediathekView
Das Programm MediathekView durchsucht die Online-Mediatheken verschiedener Sender (ARD, ZDF, Arte, 3Sat, SWR, BR, MDR, NDR, WDR, HR, RBB, ORF, SRF) und listet die gefundenen Sendungen auf. Die Liste kann mit verschiedenen Filtern nach Beiträgen durchsucht werden. Mit einem Programm deiner Wahl können die Filme angesehen und aufgezeichnet werden. Es lassen sich Abos anlegen und neue Beiträge automatisch herunterladen.
Recht überrascht war ich, daß da auch ältere Einträge zu finden sind, teilweise schon 2 oder 3 Jahre alt (oder noch älter), also länger als die momentan noch siebentägige Frist, in der die meisten Mediatheken dort noch eigene Inhalte präsentieren.
Fazit
4 Tage vor Heilig Abend wird es schon brenzelig, das passende Weihnachtsgeschenk zu finden und zu kommen. Für alle, die das versäumt haben, können ihren Lieben wenigstens noch einen schönen Heiligen Abend vor dem heimischen TV bescheren, vielleicht auch mit einigen Sachen aus der Mediatheken-Konserve. Die Links zu den vorgestelten Programmen findet ihr wie üblich am Ende des Beitrages.
Seit nunmehr fast 7 Jahren habe ich bei mir meinen Digicorder ISIO S von Technisat neben einem Fernseher von Sony und einer Playstation 3 im TV-Rack stehen. Deswegen halte ich es für angebracht einem kleinen technischen Upgrade einen Artikel zu widmen. Bisher waren alle 3 Geräte durch bauliche Einschränkungen nur via W-LAN mit dem Netzwerk verbunden. Als zentrale Schnittstelle nutze ich derzeit eine Fritzbox 7590.
Über die Jahre haben immer mehr Nachbarn W-LAN Netzwerke aufgespannt, so daß aktuelle Frequenzbänder (2,4 GHz und 5 GHz) überlaufen sind. Deswegen habe ich mich kurzerhand entschlossen, ein CAT 6e-Patchkabel mit 7,5 Metern Länge von meinem Internetgateway (Fritzbox 7590) zum Rack zu legen. Zwischen der Fritzbox und dem Reciever hängt noch ein 8-Port Switch von Netgear, den sich auch noch Playstation, ein Raspberry Pi (meine Commdore Fritzbox) und Fernseher teilen. Der Gedanke hinter der ganzen Installation: Eine stabile LAN-Verbindung via Kabel und eventuell auch höhere Geschwindigkeiten beim Transfer von Filmen zwischen Computer und Digicorder. Via W-LAN kamen oftmal nicht mehr als 10 bis 20 MBit/s Geschwindigkeit zusammen. Zudem brach durch das überlaufene 2,4 GHz Frequenzband ständig beim Streamen von Filmen der Kontakt zwischen W-Lan Gateway und dem Technisat-Reciever ab. Leider nutzen diese alten Geräte noch den 802.11b/g mit 2,4 GHz, so daß durch andere Geräte in der Nähe ständig die Geschwindigkeit gedrosselt wurde bzw die Verbindung der abriss.
Durch den Grundriss meiner Wohnung kam da nur eine Strecke in Frage. Durch Heizkörper und darüberliegende Fenster war eine Unterputzverlegung eines CAT7-Verlegekabels nicht möglich. Unter den Heizkörpern verläuft bei mir eine Scheuerleiste, unter der die Heizungsleitungen für diesen Raum entlanglaufen. Eben jene Abdeckung benutze ich, um das besagte CAT-6e Patchkabel zu verlegen. Statt CAT-7 und ein Patchfeld zur Aufputzmontage, habe ich das fertige CAT-6e Patchkabel, schon wegen der Zugentlastungen an den RJ45Steckverbindungen besorgt. Mit 7,5 Metern gab es das auch in etwa der gewünschten Länge und war auch nicht so vie teurer als eine Selbstbaulösung. Andere Strecken waren nicht durch massive Umwege und höheren Aufwand (Bohrungen, zusätzliche Kabelschächte etc.) möglich. Genug Platz war darunter für ein solches Kabel. Am Rack habe ich noch einen 8-Port Netzwerkswitch mit Gigabit-LAN von Netgear (Modell 108GE) angebracht, an dem die drei oben genannten Geräte hängen. Auf meinem PC (mit Gigabit LAN) habe ich zusätzlich noch Technisats Mediaport installiert. Schade nur daß der Technisat Digicorder nur 50 bis 60MBit/s ausnutzt, was um die 7 MByte/s an Datenübertragung ist, was zum Streamen von (Full)HD in der Regel ausreichend ist. Techniport Plus mag zwar mehr Funktionen haben, funktioniert aber auch nicht schneller beim Dateitransfer vom Reciever auf den PC. Nach einer Internetrecherche klagen weitere Nutzer über die eher misserable Transferrate zwischen Digicorder und PC. Laut Auskunft vom Technisatsupport liegt das bei den alten Geräten an einer verbauten 10/100 MBit Netzwerkkarte, die nicht wesentlich mehr Durchsatz schafft, obwohl die Gegenstellen (PC und Fritzbox) bereits Gigabit-LAN beherrschen. Bei der neueren Gerätegeneration Digicorder SC sollen laut Support bereits Gigabit Karten in den Geräten verbaut sein, die natürlich schnellere Transferraten versprechen.
Fazit
Was mir jetzt natürlich bleibt, ist der Transfer von Filmen via externer Festplatte, da USB 2.0 doch einen Ticken schneller ist. In Absehbarer Zeit werden wir uns erst einmal keine neue TV Technik zulegen, solange es der betagte Digicorder seinen Dienst noch Klaglos tut. Vor 7 Jahren gab es bei uns ja massive Probleme, die Technisat allerdings gut in den Griff bekommen hat. Aufnahme und Wiedergabe klappen problemlos, nur die Transferraten sind dann doch etwas mickrig. Hier sollte man sich in Geduld üben. Ein neuer Reciver kommt erst ins Haus, sobald der Alte seinen Geist aufgibt. Für eventuell kommende TV-Technik kann das Netzwerkupgrade durchaus weitergenutzt werden. Vielleicht nutzt kommende Technik die Geschwindigkeit, die das Netzwerk bietet mehr aus.
Sim City und River Raid, Gauntlet und Little Computer People: Auf dem Internet Archive lassen sich jetzt so gut wie so gut wie alle wichtigen Spieleklassiker für den C64 per Emulator direkt im Browser starten.
Das Internet Archive hat seine Sammlung von Klassikern der Spielegeschichte um direkt ausführbare Games vom Commodore 64 erweitert. Spiele wie Sim City, Gauntlet und Mule können direkt im Browser gestartet werden. Das klappt mit einem Mausklick und zumindest für Kenner der Original-Hardware fast schon absurd schnell innerhalb weniger Augenblicke – anders als das manchmal minutenlangen Laden etwa von Datasette in den 80er Jahren.
Wie viele Titel für den C64 insgesamt auf der Seite zu finden sind, ist nicht ganz klar. Insgesamt soll es genau 31.781 Programme für die Plattform geben, die allermeisten dürften Spiele sein. In der Hauptkategorie „Games“ werden allerdings nur knapp 9.000 geführt, es gibt aber auch eine Unterrubrik mit fast 20.000 Demos. Dazu kommen Lernprogramme, Musik und noch vieles mehr. Die ausführbaren Spiele laufen mit einer speziell angepassten Version des Vice-Emulators. Wer mag, kann die Dateien aber auch über Torrent auf seinen Rechner laden und sie dort ausführen.
Das Internet Archive ist eine gemeinnützige Organisation mit Sitz in San Francisco. Sie kann die Spiele und die Inhalte in den vielen anderen Bibliotheken durch eine spezielle Klausel im Digital Millennium Copyright Act anbieten, gelegentlich gibt es darüber aber Rechtsstreitigkeiten mit den Urhebern. Neben den Klassikern für den C64 finden sich auf den Servern auch Archive mit Spielen für Atari-Konsolen oder den Apple II.
Seine ganz großen Tage hat der seit 1982 erhältliche C64 natürlich hinter sich. Trotzdem erscheinen auch heute noch immer wieder neue, teils erstklassige Spiele für die Plattform, etwa ein Ende 2017 von Knights of Bytes veröffentlichtes Jump ’n‘ Run namens Sam’s Journey.
Im Jahre 1974 anno dazumal erfanden drei nerdige Typen (Gary Gygax, Dave Arneson und Dave Weseley) das bekannteste und meist verkaufteste Pen and Paper Rollenspiel überhaupt. Hauptsächlich ging es da mit einigen Mitspielern hinab in fiktive Verliese zu einem Dungeon Crawl. Die Rede ist vom legendären Dungeons and Dragons. Was folgt ist ein grober historischer und spielmechanischer Abriss über Pen and Paperspiele, Computerrollenspiele und ein kleines Entwicklerstudio, was später auch als Publisher, mit D&D Lizenzen groß wurde.
Dungeoncrawls kennt man heute hauptsächlich von Computerspielen, vornehmlich aus der Rollenspielsparte, wo es immer mal wieder unterirdische Verliese und Höhlensysteme zu erkunden gibt, um diverse Aufgaben zu lösen und Schätze sowie bessere Items einzuheimsen.
Dungeon and Dragons war und ist der Urvater der Pen and Paper Rollenspiele überhaupt. In seinen Anfangszeiten wurde am Spieltisch – es gab einen Dungeon Master (jaja, so hieß der Spielleiter dort) und mehrere Mitspieler, die im Spiel irgendwelche Helden verkörpern – vornehmlich in unterirdischen Verliesen gespielt. Zu Beginn jeder Spielrunde gab es eine kurze Einleitung irgendwo in einer Taverne und dann ging es oft ziemlich schnell und ohne Umwege in ein gemauertes Höhlensystem, was meist irgendwo in der Pampa verbaut war.
Ein damals typischer Dungeoncrawl lief wie folgt ab: Die Heldengruppe stand vor einer Tür, es wurde gewürfelt um die Tür durch irgend ein Talent (Schlösser Knacken oder brachiale Gewalt) zu öffnen. Ein weiterer Würfelwurf hat angezeigt, was für Monster und Schätze im Raum vorhanden waren. Jetzt wurde kräftig gewürfelt um die Gegner zu besiegen und um Reichtümer und nützliche Items ans Tageslicht zu bringen.
In den Folgejahren – Dungeons and Dragons war der Großvater aller Pen and Paper Rollenspiele – erschienen immer mehr solcher Spiele am Markt. Die meisten haben die Grundmechaniken von D&D genommen (Lebenspunkte, Magie, Klassen und Rassen, Leveln und dergleichen) und bauten ihre eigenen Regeln und Mechaniken drumherum. Etliche dieser Spiele haben noch mehr geboten, als den reinen Dungeoncrawl. Der Fokus hat sich im Laufe der Zeit auf Storytelling (neudeutsch für das Erzählen von Geschichten) verlagert. Die Leute wollten nicht nur in Verliesen nach Schätzen suchen und Orks den Gar aus machen, sie wollten Krimis nachspielen, Abenteuer in anderen Settings (Sci-Fi, Steampunk…) erleben.
Als Ende der 70er Jahre Computer aufkamen und Mitte der 80er – durch Kisten wie C64, Amiga, Spectrum, Amstrad CPC und andere Konsorten sowie Konsolen – populär wurden, gab es immer wieder Entwickler, die die Mechaniken von Dungeons and Dragons auf diese neuen digitalen Dinger übertrugen. Im Vergleich zum klassischen Pen and Paper brauchte man nur einen Rechner, um die tollsten Abenteuer zu erleben. Beim analogen Tischpendant brauchte man im Zweifel immer noch mehrere Mitspieler und einen begnadeten Spielleiter (Meister, Dungeon Master), um Spaß zu haben. Durch die riesige Verbreitung von (A)D&D lehnten sich viele Computerrollenspiele ziemlich stark an das Pen and Papervorbild an – mal mehr, mal weniger.
Los ging es Ende der 70er Jahre mit textbasierten Rollenspielen an großen Universitätsrechnern, wo Spieler mit- und gegeneinander in riesigen (und in langen Texten beschriebenen) Dungeons spielen konnten. Diese Art von Spielen nannte man Multi User Dungeons (kurz MUD) und waren direkte Vorläufer von Spielen wie World of Warcraft. Im Laufe der Jahre und mit immer besseren Computern und Konsolen haben sich dann immer mehr Rollenspiele und Subgenres herausgebildet. So erschienen dann zum Bleistift Größen wie die Ultimareihe oder Wizardry und in Japan dann noch einmal spezialisiertere Rollenspiele, JRPG genannt, die es storytechnisch in sich haben und eigene Mechaniken hinzugefügten. Final Fantasy ist eine der großen bekannten Rollenspielreihe aus Japan, wenn nicht die bekannteste und beste schlechthin.
Eins dieser Subgenres waren die rundenbasierten Computerrollenspiele wie Die Nordlandtrilogie oder The Bard’s Tale. Weiterhin gab es später Actionrollenspiele (in Echtzeit ablaufend) wie die Elder Scrolls Reihe oder Diablo, die allerdings in den 90er Jahren auftauchten.
Und dann gab es einen Zweig, der war quasi der Neandertaler unter den Rollenspielen. Der brachte einige Neuerungen mit sich, die dann in andere Nachfolgende Spielgattungen eingeflossen sind, selbst aber ausgestorben ist. Zu diesr Gattung gehören die klassischen Dungeoncrawls in Egoperspektive wie Dungeon Master und einige folgende Spiele. In den 80er und den frühen 90er Jahren waren hauptsächlich rundenbasierte Rollenspiele das Non plus Ultra. Später in den 90er Jahren wurde es dann mit Diablo oder The ElderScrolls sowie Final Fantasy actionlastiger. Immer mehr Aktionen liefen in Echtzeit ab. Bis dahin musste allerdings noch einiges geschehen.
1987 kam Dungeon Master und später ab 1990 die Eye of the Beholder Reihe, aber auch Ultima Underworld (Echtzeitbasiert) und mischten Elemente aus beiden oben genannten Rollenspielarten (Action und Rundenbasiert). Die Dungeon Master ähnlichen mischten Echtzeitelemente (Echtzeitkämpfe) mit der typischen Kachelbasierten Zugweise aus den rundenbasierten Rollenspielen, wie man die Kampfsysteme und Fortbewegung aus der Nordlandtrilogie kennt.
Dungeoncrawls haben im Prinzip das Beste aus beiden Welten genommen, aber wirkliche Rollenspielenthusiasten kommen bei dieser Spielegattung leider nicht ganz zum Zug. Eye of the Beholder, Dungeon Master und andere aus dieser Spielegattung haben das ganze System vom Aufleveln eines Helden vereinfacht in dem alles im Hintergrund unter der Haube abläuft. Man levelt seine Truppe zwar durch Aktionen wie Angriffe auf Monster auf und damit auch das Talent, was man damit braucht, aber damit hat sichs. Einige Rollenspielenthusiasten würden sich sicher mehr Einfluss aufs Skillen wünschen.
Auch in den Pen and Paper Rollenspielsystemen tat sich einiges. Die ersten Systeme wie Dungeons and Dragons waren noch recht kampflastig. Auf Rundenkämpfe gab es Erfahrungspunkte. Hatte man eine gewisse Schwelle erreicht, so konnte man seinen Charakter aufleveln. Das haben viele Computerrollenspiele in den 80er und 90er Jahren übernommen. Vampire the Masquerade war in den 90er Jahren recht inovativ und setzte mehr auf das Erzählen von Geschichten zwischen den Spielern. Der Spielleiter fungierte hier mehr als Moderator.
Andere Systeme passten in späteren Editionen das sperrige Levelsystem an. War es anfangs noch abhänig vom Würfelglück, konnte man später Erfahrungs und Abenteuerpunkte direkt auf Talente und Zauber verteilen. Damit wurde garantiert, daß diese Werte anstiegen, eine bessere Progession wurde damit erreicht. Diese Neuerung hatte zum Beispiel die vierte Regeledition von Das schwarze Auge eingeführt. Anders ging man schon in den 80er Jahren beim Sci-Fi-Spiel Traveler vor. Nutzte man ein Talent häufig, wurde das gesteigert. Actionlastige Computerrollenspiele wie Elder Scrolls übernahmen diese Mechanik eins zu eins aus den Pen and Paper Rollenspielen.
So ab in der zweiten Hälfte der 80er erschien ein kleines Entwicklerstudio mit dem grandiosen Namen Strategic Simulations Inc. – SSI – auf der Bildfläche, was Lizenzen an Dungeons and Dragons erworben hat. Ab 1988 erschien im Jahrestakt bis weit in die 90er Jahre hinein die Goldboxreihe. Pool of Radiance war der Auftakt. Die meisten dieser Goldboxgames spielten in den (A)D&D Welten (oder Settings), vornehmlich in der Welt Krynn von Dragonlance (neudeutsch für die Drachenlanze) oder in den Forgotten Realms, den vergessenen Welten.
Ja, die Drachenlanze. Das waren mehrere Romanzyklen, die in der Welt von Kryn gespielt haben. Die erste Ausgabe, die in Deutschland so in den späten 80er Jahren bis hinein in die 90er Jahre erschien, beinhalteten insgesamt 75 einzelne Bände. Aus irgend einem Grund (wahrscheinlich Profitmaximierung) wurden die Geschichten hier in Deutschland bei Goldmann und Blanvalet gesplittet und in gut verdaulichen Häppchen verkauft.
Just zu jener Zeit erschienen beim gleichen Publisher auch Eye of the Beholder und Eye of the Beholder 2: Legend of the Darkmoon, sowie Assault on Myth Drannor. Man nahm sich die Mechaniken von Dungeon Master, ein bisschen mehr Farbe als bei Dungeon Master, die altbekannten Regeln von Advanced Dungeons and Dragons (AD&D) und hat alles zu einem einzigartigen Dungeon Crawl im Sinne von Dungeon Master und Ultima The Stygian Abyss zusammen geschmissen.
Entwickelt wurden die ersten beiden Teile von Eye of the Beholder von den Westwood Studios, unter dem Publischer SSI. Der dritte Teil entwickelte SSI dann selbst.
Das erste Eye of the Beholder erschien 1990 und wurde inoffiziell als „Nachfolger“ vom 87 erschienenem Dungeon Master bezeichnet, denn nach Chaos Strikes back, dauerte es lang, bis ein Nachfolger für Dungeon Master erschien. Die Hintergrundstory tut wie in dem gesamten Spielgenre eher wenig zur Sache und ist nur schmückendes Beiwerk. Das gilt genauso wie für die beiden Nachfolger.
Im Prinzip müssen 4 Abenteurer, die genau wie in Dungeon Master schon vorgefertigt sind, ausgewählt werden, um in die Kanalisation der Stadt Deepwater abzusteigen und dem fiesen Magier Xanathar besiegen. Bei den beiden Folgeteilen ist die Geschichte genauso kurz und Prägnant erzähl. Um ähnliche finstere Machenschafter geht es auch in Eye of the Beholder II: Die Legende von Darkmoon und und EoB III: Assault on Myth Drannor.
Vom Spielablauf her unterscheiden sich alle drei Teile nicht vom Genre Urgestein Dungeon Master. Man schaut in der Egoperspektive in die Tiefe des unterirdischen Verlieses. Man stellt sich zu Beginn eine Gruppe aus 4 Abenteurern zusammen und erkundet die Dungeons der drei Teile. Im Verlauf muß man viele Rätselpassagen lösen (die im ersten Teil eins zu eins von Dungeon Master abgekupfert waren) und typische Monster aus den Forgotten Realms bekämpfen.
Mit diesen Aktionen bekommen die Helden Erfahrungspunkte, mit denen die in ihren Leveln aufsteigen, in denen dann die Attribute und Skills verbessert werden. Das geschieht meist im Hintergrund wie schon eingangs erwähnt nach den Regeln von Advanced Dungeons and Dragons.
Einen großen Unterschied zu Dungeon Master hat man beim Magiesystem gemacht. dazu ein kleiner Exkurs in die Literatur und Pen and Paper Welt zum Magiesystem
In der Rollenspielwelt haben sich im Prinzip zwei Magiesysteme entwickelt. Ganz speziell ist das vancianische System, was auf den Schriftsteller Jack Vance zurückgeht. In seinem Episodenroman „The dying Earth“ ging es um Zauberer, die ihre Sprüche jeden Tag oder nach Gebrauch neu erlernen mussten. Um wieder eine Metapher zu strapazieren – das System ist vergleichbar mit einem Köcher Pfeile, wobei die Pfeile die gemerkten Zaubersprüche sind. Sind die Zauber gesprochen und die Pfeile abgeschossen, so ist der Köcher leer.
In den allermeisten Rollenspielsystemen bestimmen Manapunkte wie schwer ein Zauber sein kann oder wieviel Schaden dieser machen kann. In Dungeons and Dragons im Allgemeinen und Eye of the Beholder im Speziellen ist jedoch die Intelligenz des Zaubernden wichtig, denn diese bestimmt im Endeffekt wie viel Zaubersprüche man behalten kann oder wie komplex die sein können. Manapunkte gab es nicht. Dieses System haben Gygax und Arneson eins zu eins in ihrem D&D Rollenspiel übernommen.
Das vancianische System kann man gespalten sehen. Manch einer sieht es als taktische Herausforderung sich für verschiedene Situationen ein Portfolio an Zaubersprüchen zusammenzustellen, andere finden dieses System als ein Klotz am Bein, bei dem sie nicht immer auf alles zurückgreifen können.
Im zweiten System, was die meisten anderen Rollenspielsysteme nutzen, sind die Zaubersprüche fest mit dem Magier verankert. Einmal gelernt oder durch einen Levelaufstieg freigeschaltet, können diese ständig (sofern genug Manapunkte da sind) beliebig oft gesprochen werden.
Eye of the Beholder setzt ganz nach alter D&D-Manier auf das Vancianische System. Bei einer Ruhepause müssen die Zauber wieder aufgefrischt werden. Das ist der erste große Unterschied zu Dungeon Master. Der zweite Unterschied ist, daß es fertige Zauber gibt, die man je nach Klasse entweder schon kann oder erst auf Schriftrollen finden muss. Diese Schriftrollen sollten in D&D und auch in EoB in Zauberbücher übertragen werden. Ist der Zauber einmal gelernt und angewendet, verschwinden diese Schriftrollen zumeist.
Bei Dungeon Master gab es 6 kleine Symbole, jedes dieser Symbole hatte eine bestimmte Funktion – ich hab das in einem der früheren Artikel bereits ausführlicher besprochen. Gewünschte Zauber mussten so zusammengeklickt werden.
Wesentliche Unterschiede zu Dungeon Master, waren farbige Interfaces und insgesamt ein bunteres Spiel. Auch konnte man in jedem Teil von EoB via Hexeditoren Charaktere verbessern (ein Cheat sozusagen). Ein weiterer Unterschied waren die Portale, die man mit bestimmten Schlüsseln aktivieren konnte und sich damit überall im Dungeon hin teleportieren wo man wollte. 1991, also gut drei Jahre vor Dungeon Master 2 wurden in Eye of the Beholder 2 auch Außenbereiche eingeführt. Leider war 1994 Dungeon Master, als es in Deutschland erschien, schon reichlich angestaubt was die Technik anging, was wohl an dem langen Zeitraum zwischen Entwicklung und Veröffentlichung lag.
Aber man hat die aus Dungeon Master berüchtigte Türpresse nicht eingebaut. Dort konnte man ein Monster drunter locken und die herunterrasselnde Tür hat dem Schaden zugefügt. Das mußte jetzt noch einmal heraus.
In einem früheren Artikel habe ich einen unter Windows gut spielbaren Dungeon Master Klon beschrieben. Fans beider Spieleserien haben zu diesem Klon auch eine Modifikation gebastelt, die in der selben Engine Eye of the Beholder recht gut spielbar gemacht haben. Zu dieser Mod ist eigentlich recht wenig zu sagen. Wenn man Return to Chaos auf einen USB Stick oder eine bisschen Festplatte entpackt hat, schiebt man die Datei dieser Mod einfach in den Modules Ordner und kan im Prinzip schon mit dem Spiel loslegen.
Fazit
Die Entwicklung von Rollenspielen und deren Mechaniken ist eine durchaus interessante Geschichte. Viel kann man in dem Buch Drachenväter, was ich vor geraumer Zeit hier auf meinem Blog beschrieben habe nachlesen. Daß sich Rollenspiele heutzutage solch einer erstaunlichen Beliebtheit erfreuen und ein solch erstaunlich fester Bestandteil der Pokultur sind, haben die Drachenväter 1974 bei der Veröffentlichung von D&D sicher nicht träumen lassen.
Eye of the Beholder läßt sich auch nach 30 Jahren noch recht gut spielen. Dungeon Master und EoB sind beide recht gut gealtert. Wer es etwas moderner will (aber leider ohne D&D Regelwerk unter der Haube) lädt sich einfach Legend of Grimrock. Gerade der zweite Teil davon fügt auch Außenbereiche zum Verlies hinzu.
Die neue DSGVO ist seit nunmehr einer Woche gültig. Das heißt, daß alle Webseitenbetreiber, die in irgend einer weise Daten speichern und Verarbeiten, sich an die Bestimmungen der neuen Rechtslage halten müssen. Statische Webseiten, die aus reinem HTML und CSS ohne weitere Scripte zum Tracken angereichert wurden sind fein raus. Bei Content-Managementsystemen wie WordPress, Foren und anderen Systemen sieht es anders aus. Meist sind da Kommentarfunktionen implementiert, die per Default auch unnötige Daten sammeln. In dem Fall soll es um die Kommentarfunktion von WordPress gehen, die neben einigen Zeilen, die der Verfasser hinterlässt, auch noch die IP Adresse dessen anzeigt und speichert. Und das in der Grundeinstellung.
An IP-Adressen in den Kommentaren denkt man meist nur in den seltensten Fällen. Mir ist auch erst die Tage mit der neuen Datenschutzverordnung aufgefallen, daß WordPress per Default IP-Adressen der einzelnen Kommentatoren abspeichert. Die müssen natürlich raus aus der Datenbank, denn für weitere Verwendung sind die Adressen natürlich überflüssig.
Als zweiten Schritt muß man WordPress dazu bringen, keine IP Adressen mehr zu speichern. Seit Version 4.9.6 bringt zwar WordPress Funktionen dafür mit, die aber nicht wirklich einfach zu implementieren sind. Aber der Reihe nach.
Wie man WordPress dazu bringt, neue IP’s nicht mehr zu speichern
Das Löschen der Adressen kann man auf zwei Arten angehen.
Zum einen geht das ohne viel Aufwand via Plugin Remove IP. Allerdings ist das Plugin das letzte mal vor über 2 Jahren aktualisiert worden und wer weiß ob diese Version in Zukunft noch neuere WordPressinstallationen unterstützen wird. Jedes Plugin, was man installiert ist potenziell angreifbar. Außerdem möchte man auch seine Installation schlank halten oder? Egal ob mit oder ohne Plugin, neue Kommentare dürfen nicht mit IP Adresse gespeichert werden, weil die hier schlichtweg nicht notwendig ist, daß man als Seitenbetreiber die weiß.
Ich für meinen Teil habe mein Theme entsprechend angepast. Und zwar muß die functions.php dafür geändert werden. Dazu wird folgender Code in diese datei eingefügt werden:
Schon wird WordPress bei der Speicherung von IP-Adressen vergesslich und läßt diese einfach aus. Als kleine Anmerkung: Diese Variante funktioniert bei einigen Themes nur bis zum nächsten Update, dann muß dieser Code wieder eingefügt werden .
IP Adressen aus der Datenbank löschen
Bleiben noch die bereits gespeicherten IP Adressen, bevor man an die Möglichkeit gedacht hat, daß WordPress da etwas speichern könnte. Die Tabelle mit den IP Adressen der Kommentatoren steht in der Datenbanktabelle xx_comments in der Spalte comment_author_IP. Wobei das xx_ vor der Tabelle das Präfix was man gewählt hat darstellt Standardmäßig ist es auf wp_ gesetzt.
Ist man zu der Tabelle xx_comments navigiert, wird ein Mausklick oben auf SQL notwendig. Im sich auftuenden Fenster einfach folgende Zeile einfügen – dabei aber das xx_ durch das richtige Tabellenpräfix ersetzen:
UPDATE xx_comments SET comment_author_IP = ' ';
Danach dürfte das Fenster vom PHPMyAdmin wie folgt aussehen und sämtliche bisher gespeicherte IP Adressen gelöscht sein.
[Update am 3. Juni 2016]
Neben der IP Adresse wird noch der genaue Zeitpunkt gesichert, wann ein Kommentar eingereicht wurde aufgezeichnet. Mit genau diesen Daten kann man im Ernstfall nachvollziehen zu welchem Anschluss der Kommentar zurückführen kann. Obwohl IP Adressen sich providermäßig alle paar Stunden ändern, so bleibt mit einem Zeitstempel genau erfassbar, wer einen Kommentar abgegeben hat. Das erlaubt Rückschlüsse auf Wohnort und Anschlussinhaber, so wie es die Abmahnanwälte gern bei Peer-to-Peer Tauschbörsen mit mehr oder minder legalen oder illegalen Inhalten tun.
WordPress speichert IP Adressen bei den Kommentaren komplett und nicht anonymisiert, also mit fehlenden oder unkenntlich gemachten Stellen. Auch eine Checkbox kann da im Zweifel nichts gegen eine Abmahnung ausrichten, wenn da irgendetwas bekannt wird.
Am vergangenem Freitag (25. Mai 2018) ist die neue DSVGO in Kraft getreten. Die bringt kleine Seitenbetreiber ins Schwitzen, obwohl die eigentlich auf große Unternehmen abzielt. Allerdings ist die DGSVO in Teilen so schwammig formuliert, daß sie auch auf den kleinen Webseitenbetreiber anwendbar ist.
Disclaimer
Ich bin kein Jurist und kein Experte in Sachen Recht, daher darf dieser Artikel nicht als Rechtsberatung angesehen werden. Ich habe mich in den letzten Wochen allerdings mit der neuen Datenschutzverordnung auseinander gesetzt, um meinen Blog so gut es geht rechtssicher zu machen. Daher kann dieser Artikel nur als kleiner Leitfaden und Chekliste mit Tips und Tricks, sowie Anregungen zur DSGVO und zum Impressum dienen. Meine Checkliste erhebt auch keinen Anspruch auf Vollständigkeit und Fehlerfreiheit.
Die umstrittene Impressumspflicht
Eine Diskussion in einem IRC-Channel befleißigt mich, dieses Thema anzunehmen. Im Allgemeinen ging es bei dieser Argumentation, wo privat aufhört und kommerziell anfängt, im Zusammenhang mit der Impressumspflicht nach TMG §5 und der neuen Datenschutzgrundverordnung.
Der Paragraph 5 des Telemediengesetzes schreibt Anbietern vor, die ihre Dienste geschäftsmäßig in er Regel entgeltlich anbieten, ein Impressum vor. Das bezieht auch den kleinen Seitenbetreiber mit ein, der auf seiner Seite mit den privaten Kochrezepten ein bisschen Werbung setzt, um die Kosten für seine Domain zu refinanzieren.
Kann aber eine Seite, die öffentlich zugänglich ist als Privat gelten? Daum ging es in der Diskussion vornehmlich. Eine private Seite bedeutet für mich auf einer technischen Ebene, daß nur der Seitenbetreiber und ein paar seiner Bekannten darauf Zugriff haben. Das geht recht einfach via .htaccess, wo der Seitenbetreiber Passwörter einträgt, die er an Freunde und Familie weitergibt. Um eine ungewollte Verbreitung der Passwörter vorzubeugen, kann man hin und wieder ändern und neu vergeben.
Die neue Datenschutzverordnung
Eigentlich sollte das neue Gesetz den Bürger vor großen Internetkonzernen schützen. Laut einiger Recherchen im Netz treibt die Verordnung reichlich kuriose Stilblüten. Anwaltskammern schließen ihren Internetauftritt, Blogs schließen … zumindest temporär. Europäer dürfen keine amerikanischen Medien mehr lesen, Twitter sperrt Konten, vieles gibt es in diesen Tagen zu berichten.
Das neue europäische Recht, soll die Datenverarbeitung transparenter machen, Konzerne wie Facebook, Google und Co nehmen das allerdings zum Anlass, ihre Datenschutzerklärungen zu überarbeiten. Gerade bei sozialen Netzwerken gab es in den letzten Tagen schon fälle, daß Konten gesperrt wurden, weil die neue Datenschutzerklärung nicht aktzeptiert wurde – aus dem einfachen Grund, weil sich amerikanische Konzerne nicht um das neue europäische Recht scheren und ihre Datensammelwut mit einer überarbeiteten und an das neue Getz angepasste Erklärung rechtfertigen.
Kleine Websitebetreiber haben allerdings ein Problem, denn auch auf sie kommen hohe Strafen bei Verstößen zu, ebenfalls auch hohe Kosten, wenn sie ihren Auftritt korrekt rechtssicher gestalten wollen. Aber zur Erleichterung der kleinen Webseitebetreiber wie Blogger – Datenschutzbeauftragte werden nicht benötigt, daß man kein Unternehmen mit mindestens 10 Angestellten führt, was als Kerntätigkeit die Verarbeitung von Daten hat.
Aber dennoch gilt es als erstes die Webseite abzuklopfen und zu schauen wohin überall Daten abfließen. Mit Pi Holekann man das selbst sehr schön nachvollziehen. Man loggt sich dort einfach ins Dashboard ein und schaut einfach in die Logs, wohin welche Abfragen gehen, wenn man seine Seite öffnet und welche Domains angepingt werden.
Meist findet man dann doch Anfragen neben seiner Domain zu Google Analytics, Google Ads (oder Google allgemein) oder anderen Werbenetzwerken (wenn man denn soetwas eingebunden hat).
Als erste Anlaufstelle für die Umsetzung der eigenen DSGVO Konformen Seite sollte der Provider sein, wenn man sich irgendwo eine Domain und ein bisschen Webspace für den eigenen Blog besorgt hat. Der müsste einen rechtssicheren Vertrag für die Datenverarbeitung anbieten, den man mit dem Provider abschließen muß. Das Selbe muß man mit Google tun, sofern man irgendwelche Trackingdienste für Werbung und Analyse nutzt.
Blogger benutzen gern auch diverse Tools für die Spamabwehr. Akismet ist da führend, überprüft aber jede IP Adresse auf ausländischen Server ob die für Spam bekannt sind. JetPack und Matomo – ehemals Piwik – sind ebenfals sehr mächtige Analystools. Der Unterschied: JetPack sendet auch Daten an fremde Server, Piwik speichert anonymisiert auf dem eigenen Webspace. Matomo ist als Statistictool Google Analytics aus genannten Gründen vorzuziehen. Bleiben beim Ersteren die Satistikdaten anonymisiert auf dem eigenen Webspace, so funkt Google Analytics diese auf Google Server, die mitunter auch im Ausland stehen. Bleibt noch eine Frage offen: Speichert Google diese Daten auch anonymisiert?
Die Originalen Like-Buttons von Facebook, Twitter und co. werden zumeist als iFrame eingebunden. Das sind meist kleine Browserfenster im Browerfenster. Man lädt also einn Teil von einem sozialen Netzwerk, mit einer Seite, auf dem einer der Buttons eingebunden ist. So fließen ungewollt Daten auf andere Server ab.
Für alle Plugins, die auf Fremden Servern Daten auslagern: Man muß im Zweifelsfall einen Vertrag zur Auftragsdatenspeicherung abschließen. Meine Ansicht dazu: Wenn man ohne Trackingtools nicht leben kann, dann sollte die man auf dem eigenen Server bzw. bei seinem Webhoster betreiben, denn mit dem hat man ja bereits einen Vertrag. Like-Buttons sollte man lieber als HTML Version oder 2-Clickmethode einbinden, so wie ich das mit Shariff schon früher beschrieben habe.
Als nächstes ist natürlich eine DSGVO Konforme Datenschutzerklärung notwendig. Hier ändert sich allerdings nicht viel, denn ähnliches war schon im deutschen Datenschutzrecht verankert. Für die Hobbyblogger unter uns gibt es zahlreiche DSGVO Konforme Generatoren für die Datenschutzerklärung im Netz, die man schon für lau nutzen kann. Aber auch da gibt es keine Hundertprozentige Sicherheit für eine Fehlerfreie Erklärung.
Hat man unter der Haube eine Bestandsaufnahme gemacht und eine Datenschutzerklärung fertig, so fällt meistens auf, daß man sowieso nicht alles DSGVO-konform ist. Jetzt geht es daran Plugins, Kontaktformulare und Kommentarspalten abzuklopfen.
Kann man auf diverse Dinge, wie Statistik nicht verzichten, sollte man sich villeicht nach Alternativen zu den Diensten von Google und Co. umsehen. Piwik währe da eine gute Alternative, hier hat man 99protzentig selbst in der Hand was wie gespeichert wird. Akismet ist beispielsweise durch die AntiSpamBee auszutauschen, die setzt auf unsichtbare Formularfelder um Spambots draußen zu halten.
Trackt man irgendwie, so werden Cookies und/oder Zählpixel eingebettet, das heißt, eine Zustimmung für das Setzen von Cookies muß beim Betreten der Seite her. Auch bei der Kommentarfunktion sowie Kontaktformularen werden Daten wie IP Adresse und Mailadresse gespeichert. Bei WordPress kann man Kinderleicht mit WP GDPR Compliance Checkboxen setzen, die die entsprechenden Zustimmungen einholen.
Dann bleiben noch die IP Adresssen, die die Kommentarfunktion speichert. Hier gibt es einen tieferen Eingriff ins Getriebe von WordPress um bereits gespeicherte Adressen zu löschen und einige Scripte, die künftiges Speichern verhindern. Darauf werde ich allerdings in einem kommenden Artikel eingehen, dafür habe ich einen schönen Workflow recherchiert und erarbeitet.
Ja, angebotene Downloads. Hier sind wieder Urheberrechte und Lizenzrechte zu beachten. Aber ich gehe mal davon aus, daß ihr alle, wenn ihr etwas zum Download anbietet, das auch auf legale Weise tut. Vor Jahren habe ich aus Mangel an bezahlbaren Alternativen einige Downloads einfach in die Dropbox geschubst. Synchroordner auf der Festplatte erstellt, Dateien dort reingeschmissen und wusch, verlinkt. Dropbox ist ein US-amerikanisches Unternehmen mit Serverstandorten in den USA und auf der Welt verteilt. Auch wenn da sowieso nur Downloads drin waren, die für die Öffentlichkeit bestimmt sind, so können doch beim Klick auf die entsprechende Verlinkung, Daten zu dieser Firma abfließen. Daten dafür sind nunmal IP-Adressen, damit die Server wissen, wohin sie die Downloads schicken müssen. Also dran denken: Wenn ihr einen deutschen oder europäischen Server für eure Webseite nutzt, dann lagert eure Downloads auch dort.
Bleibt noch die Frage zu den Bildern. Im Prinzip gilt hier immer noch das Urheberrecht. Der Blogger, der ein Bild aufnimmt darf das auch online stellen, sofern eine schöpferische Tiefe erkennbar ist. Stehen allerdings Personen im Vordergrund, auf denen der Hauptaugenmerk liegt, so muß da eine schriftliche Einverständniserklärung vorliegen, denn die haben auch noch Rechte am eigenen Bild, um es mal in juristischer Fachsprache zu versuchen. Fotografiert man allerdings ein öffentliches Panorama, auf dem in einiger Entfernung viele Leute durch das Bild laufen, so kann man das soweit posten. Für Bilder aus der Wikipedia so gilt der Beitrag den ich früher schonmal geschrieben habe. Auch wenn es Creative Commons ist, Quellenangaben und die Lizenz dazu, dabei hilft der dort vorgestellte Lizenzgenerator.
Fazit
Die DSGVO ist ein ganz schönes Bürokratiemonster und setzt dem eh schon straffen deutschen Datenschutz noch einiges drauf. Für kleine Webseitenbetreiber kommt einiges an Arbeit zu, vielleicht auch an Kosten für die rechtskonforme Umsetzung der DSGVO.
Wer heute um die 50 Jahre alt ist, könnte beim Stichwort Intellivision leuchtende Augen bekommen – weil er sich an lange Nächte mit Klassikern wie Advanced Dungeons and Dragons erinnert, die es für die Spielkonsole Intellivision gab. Jetzt soll eine neue Plattform mit diesem Namen auf den Markt kommen. Bislang gibt es keine Informationen zur technischen Ausstattung. Es ist noch nicht einmal abzusehen, ob das Gerät als High-End oder als Retro positioniert wird, Letzteres erscheint allerdings wesentlich wahrscheinlicher. Details soll es am 1. Oktober 2018 geben.
Hinter dem Projekt steckt der Gamedesigner, Komponist und Musiker Tommy Tallarico, der Chef der neuen Firma Intellivision Entertainment ist. Zu dem Unternehmen gehören weitere Programmierer und Designer, die früher für Intellivision gearbeitet haben. Don Daglow, das heute wegen seiner Auftritte bei Tagungen und Konferenzen wohl noch bekannteste Mitglied des damaligen Teams, ist an dem Neustart nach aktuellem Wissensstand nicht beteiligt.
Die vom Spielzeughersteller Mattel produzierte Intellivision kam 1979 auf den Markt und war anfangs ein großer Erfolg. Das lag unter anderem daran, dass das 16-Bit-Gerät dem wichtigsten Konkurrenten, dem Atari 2600, technisch überlegen war. Nach starken Verkäufen wurde die Lage für Intellivision ab 1982 allerdings rasch wieder schwieriger, vor allem durch eine verfehlte Geschäftspolitik und neue Konkurrenzsysteme wie den Atari 5200 und den Heimcomputer Commodore C64.
Statt in die Plattform zu investieren, reagierte Mattel zum Senken der Kosten mit Entlassungen und dem Streichen von Nachfolgegeräten, um sich wieder auf das klassische Spielzeuggeschäft zu fokussieren. 1984 verkaufte der Konzern die Reste von Intellivision an eine kleine Firma, die vor allem mit der Vermarktung der Restbestände noch etwas Geld verdiente. Nun sind die verbliebenen Markenrechte offenbar bei Tallarico gelandet.
Wie ihr bereits gesehen habt, hat sich optisch einiges getan. Ein neues Theme, aber das ist nur die Spitze des Eisberges. Die Änderungen sind zum größten Teil der neuen Datenschutzverordnung geschuldet. Es musste einiges unter der Haube ausgetauscht werden, was sich auch auf das Theme ausgewirkt hat. Da sind zum einen die neue Datenschutzerklärung und die damit verbundenen Checkboxen. Letztere waren im alten Theme leider nicht mehr ohne weiteres umsetzbar, weil das leider auch schon über 6 Jahre alt war. Schon bei der letzteren Änderung unter der Haube – man erinnere sich an PHP 7.x – musste am Theme aufwendig gefixt werden, um die Stabilität und Erreichbarkeit zu gewährleisten.
Am vergangenem Freitag, dem 25. Mai, ist die neue Datenschutzverordnung ins europäische und nationale Recht eingeflossen. Neben einer angepassten Datenschutzerklärung. Aus bestem Wissen und Gewissen habe ich die auch sogleich umgesetzt. Shariff nutze ich seit je her für die Einbindung von Sozialen Netzwerken. Jetzt findet ihr bei den Kommentaren eine Box zur Einwilligung eure Daten zu senden. Dabei handelt es sich nur um eine Mailadresse und einen von euch gewählten Spiznamen. Die Adresse wird nur gefordert, um die Latte für Spammer höher zu legen.
IP Adressen speichert die Kommentarfunktion seit je her nicht. Wie man das abstellen kann, zeige ich in einem weiteren Artikel zur Serie über die neue Gesetzeslage. Alle anderen Plugins die ich unter der Haube verwende, sind soweit datenschutzkonform und erheben keine weiteren Daten. Dazu gehören beispielsweise TablePress, WP Youtube Lyte, Monalisa für die lustigen Smileys, die hier bei mir auf dem Webspace liegen. MetaSlider für Bilderslideshows versendet auch nichts nach draußen.
WP Youtube Lyte setze ich auch schon seit Anfang meines Blogs ein. Das ist im Prinzip auch nur eine Zwei-Klick-Variante wie bei Shariff für die Like-Buttons. Wordpres Embed legt ein iFrame über die gesamte Seite, die schon beim Öffnen Daten an Youtube und Google sendet. WP Youtube Lyte bindet im Prinzip nur einen Player ein, der ein Vorschaubild vom Youtube-Video zeigt und ansonsten nichts an sensiblen Nutzerdaten zu Youtube überträgt. Erst auf einen Klick auf den Play-Button streamt Youtube das Video auf die Seite.
Schon seit einigen Jahren verwende ich wegen besserer Auffindbarkeit bei bekannten Suchmaschinen SSL Zertifikate. So ein Zertifikat verschlüsselt alle Daten, auf dem Weg vom Nutzer weg und von der Webseite hin zum Nutzer. Gefordert wird auch dies in der neuen Verordnung.
[Update 31. Juni 2018]
Reichlich spät ist mir aufgefallen, daß ich noch einige Downloads zu einigen Programmen in einigen Artikeln, die bereits mehrere Jahre zurückliegen, angeboten habe. Bisher liefen die Downloads über die Tröpfelkiste (deutsch für Dropbox). Das habe ich soeben auch noch geändert und liegen jetzt bei mir auf meinem Miet-Webspace bei Lima-City.
Wieder einmal schwappt eine Hitzewelle mit staker Trockenheit über das Vogtland. Deshalb hat sich die Medienspürnase wieder in den angenehm kühlen Keller verkrochen, in dem der Amiga 500 und die original von Commodore signierte Fritzbox steht, auf denen zwei Spiele gedaddelt werden.
Dragon Cave…
… ist ein Puzzelspiel, von der Firma Bernstein Zirkel, welches sich ganz dreist an diversen Vorlagen aus Literatur, Film und Computerspiel bedient. Die erste abgekupferte Idee offenbart sich ganz augenscheinlich am Anfang des Spiels. Man steht vor dem Tor, welches schon die Pforte zu dem unterirdischen Verlies zu Dungeon Master zierte. Auch nach dem Öffnen der selben, eröffnet sich ein Gang, der aus den typischen grauen Steinblöcken aus Dungeon Master besteht. Schlieĺich bewegt sich ein Drache in bester Dungeon Master Manier auf den Spieler zu und stellt sich als der berühmte Smaug vor. Ich glaube die Bücher und die Filmvorlage, die dem netten Typen den Namen gegeben haben, brauche ich nicht zu erwähnen. Da ich sowieso gerade schon spoilere, schreibe ich für die Unwissendenden dazu, daß es sich um den Drachen aus „Der Hobbit“ handelt. Das Spiel an sich ist ein gut gemachter Sokoban Klon aus dem Jahr 1989. Der eingangs erwähnte Drache möchte vom Spieler, daß dieser den Drachenhort aufräumt (und nicht ausräumt). Im Prinzip muß der geneige Spieler in so wenig wie möglich Zügen Kisten im Dungeon-Master-Style durch die Gänge zu einem bestimmten Feld verschieben. Unterstützt wird das bereits mit einer kleinen Auto-Map. Das ist insgesamt ein einfaches Spielprinzip, aber in den höheren Levels wird das Spiel schön fordernd.
Kampf um Eriador…
… muß irgendwann um 1988 von einem deutschen Entwickler als Public Domain Spiel erschienen sein. Public Domain ist im Prinzip eine Lizenz unter der Spiele und Software gemeinfrei sind. Kurz zur Story: Zwei Reiche… eines, welches von einem hellen König und eines vom dunklen König regiert, sind verfeindet und bekriegen sich schon sehr lange. Nun ist die ultimative Endshlacht zwischen den beiden Parteien angebrochen. Von dem Setting her hat man sich wieder aus der Herr-der-Ringe- welt bedient. Kampf um Eriador ist als Zwei-Spieler Rundentaktik-Spiel einzuordnen, bei dem man zu Zweit vor dem Computer sitzt und abwechselnd seine Spielzüge tut. Das Spielfeld besteht aus 3 mal 3 Kartenteilen die noch einmal in 25 mal 25 Felder mit Wasser, Sumpf, Wald, Berge und Mauern sowie Brücken. Jeder Spieler kommandiert nun 3 Legionen bestehend aus jeweils 21 Einheiten. Zu den Einheitentypen zählen zum Bleistift Legionäre, Katapulte (die Gebäudestrukturen zerstören können) Adler und Drachen als Luftkampfeinheiten (die Hindernisse wie Berge und Mauern überwinden können) sowie allerlei andere Einheitentypen. Die Spielmechaniken hier ähneln noch stark an Schach. Jede Einheit hat eine gewisse Anzahl an Bewegungspunkten, sowie Angriffs-, Rüstungs- und Stärkepunke. Bei einem Angriff wird im Hintergrund gewürfelt, wer wieviele Stärkepunkte (heutzutage Hitpoints) verliert und welche Einheit eher stirbt. Ziel des Spiels ist es im Prinzip den gegnerischen König auszuschalten, oder wenn er noch in seinem Palast ist (und aus dem kann er nicht ohe Hilfe heraus) seine Armee zu vernichten. Gespielt wird gegeneinander am gleichen Computer über die Tastatur. Mit den Cursortasten wird der Zeiger von Feld zu Feld bewegt, die Entertaste wählt eine Figur aus und wieder ab, löst an einem beiebigen Feld auch den Zug (oder andere Aktion wie Berge einebnen – Magier – Mauern zerstören – Katapult – Bewegung und Angriff) der Figur aus. Früher habe wir das Spiel gern gespielt. So in der Retrovision dachte ich, das Spiel sei mit Maus (oder Joystick) noch gut zu spielen zu spielen. Allerdings hat es sich auf dem Amiga (und im Emulator unter Retro Pie) nur wie beschrieben mit der Tastatur spielen lassen, was das ganze Spiel anstrengend gemacht hat. Zudem waren einige Tastenkombinationen um einige Aktionen auszulösen nur durch die Ausprobieren auffindbar
Fazit
Das erstere Spiel vereint den Charme eines Klassikers mit den Mechaniken eines bekannten Brettspiels (Sokoban). Wer schon damals Dungeon Master gespielt hat, der wird Dragon Cave mögen. Unten findet ihr ein paar Links zu früheren Dungeon Master Spielen. Kampf um Eriador ist eher nur für hartgesottene Rundentaktikfans, die auch nicht viel von Eye-Candy halten. Grafikmäßig könnte dieses Spiel auch von einem 8-Bit System stammen. Für dieses Spiel sollte man auch viel Zeit einplanen. Beides läuft auf einem schnöden Amiga 500, letzteres kommt sogar auch ohne Erweiterung auf 1 MB aus.
Heute habe ich mal wieder meine Spürnase in die aktuelle TV Zeitung gesteckt und ein bisschen recherchiert. Ich war recht überrascht, daß in den nächsten Tagen und Wochen auf einigen von unseren GEZ finanzierten Sendern einige Dokumentationen laufen, die aktuelle Themen und Trends rund um Technik und Videospiel aufgreifen. Pünktlivch zum Start der neuen Datenschutzverordnung läuft heute Abend auch ein Dokumentarfilm über den Datenschutz in der EU.
Mittwoch, der 23. Mai 22 Uhr 40 bis 0 Uhr 20 in der ARD – „Im Rausch der Daten“
Der Film öffnet die Türen zu einer undurchdringlichen Welt und begleitet den politischen Kampf für ein neues Datenschutzgesetz in der EU. Eine fesselnde und hochbrisante Geschichte über eine Handvoll Politiker, Lobbyisten, Diplomaten und Bürgerrechtler, die um den Schutz der Privatsphäre in der digitalen Welt ringen. Der Film gewährt einen einmaligen Blick in den Maschinenraum der EU und damit in die Wirklichkeit der modernen Demokratie.
Preisgekrönter Kinofilm: „Im Rausch der Daten“ ist die TV-Fassung des erfolgreichen Kino-Dokumentarfilms „Democracy – Im Rausch der Daten“, der im Herbst 2015 uraufgeführt wurde und in Deutschland, Luxemburg, Großbritannien, Österreich und Frankreich ins Kino kam. „Democracy“ wurde 2016 für den deutschen Filmpreis „Lola“ nominiert und gewann u.a. den Deutschen Dokumentarfilmpreis 2017. Die Deutsche Film- und Medienbewertungsstelle zeichnete diesen Dokumentarfilm mit dem „Prädikat besonders wertvoll“ aus.
Donnerstag 24. Mai 20 Uhr 50 bis 22 Uhr 20 3Sat – „Scobel – Ethik der Algorithmen“
Morgen Abend geht es bei Herrn Scobel um die Digitalisierung. Mit seinen Gästen spricht er über Computer, Algorithmen und Digitalisierung und philosophiert mit seinen Gästen darüber, wie die unser Leben bestimmen und welche Ethik man auf die digitale Welt anwenden darf.
Samstag 26. Mai 22 Uhr 30 bis 23 Uhr 50 Arte – „Handys – Strahlendes Risiko?“
Rund 7 Milliarden Handys gibt es Weltweit. Diese Doku geht der Frage nach ob die Strahlung (elektromagnetische Felder) der kleinen smarten Helfer vielleicht schädlicher ist als gedacht? Welche Wirkung haben Handys auf die Gesundheit von uns Menschen?
Sonntag 3. Juni 18 Uhr 25 bis 19 Uhr 10 bei Arte „Video Game Musik – Von der Spielkonsole in den Konzertsaal“
Das ist definitiv ein Dokumentarfilm für Spielenerds. Der Film will in ca 50 Minuten herausfinden, warum Musik von Computerspielen in Konzerthallen immer beliebter wird und warum Spielemusik bei Youtubern und im Spiel selbst immer wichtiger wird.
Bei vielen Aufgaben unterstützen und ersetzen intelligente Computer-Algorithmen den Menschen bereits heute: sie kontrollieren Flug- und Bahnverkehr, regeln Stromnetze und steuern Industrieroboter, Drohnen und Autos. Auch in der Finanzwelt und Verwaltung finden hochentwickelte Algorithmen immer mehr Anwendung. Doch derartige Systeme bringen Risiken und Gefahren mit sich, die Zweifel aufwerfen. Auch bezüglich der Moral: sind etwa lernfähige Künstliche Intelligenzen überhaupt ethisch korrekt und vertretbar? Diese und weitere interessante Fragen diskutiert das Wissensmagazin scobel – Ethik der Algorithmen, das am Donnerstag, den 24.05.2018 um 21:00 Uhr bei 3sat zu sehen sein wird.
Mit PGP und S/MIME verschlüsselte E-Mails können unter bestimmten Umständen von Angreifern aus dem Netz mitgelesen werden. Was man tun muss, um weiterhin verschlüsselte Mails sicher zu lesen, erklärt dieser Artikel.
Nachdem nun die Details zum Angriff auf die heute veröffentlichten Sicherheitslücken in PGP und S/MIME bekannt geworden sind, bleiben viele Anwender verunsichert und fragen sich, was sie tun müssen, um nach wie vor sicher verschlüsselte Mails versenden zu können. Wir wissen, dass Angreifer unter Umständen verschlüsselte Mails abfangen und manipulieren können, um an den entschlüsselten Inhalt der Mails – oder zumindest Teile davon – zu gelangen. Die als Efail bekannt gewordene Schwachstelle betrifft dabei die meisten gängigen Mail-Programme, die HTML-E-Mails empfangen und darstellen können wenigstens in Teilen. Um sich und seine Geheimnisse zu schützen, gibt es mehrere Möglichkeiten.
Ein guter Anfang ist damit gemacht, das Anzeigen externer Bilder in Mails zu unterbinden. Das ist sowieso zum Schutz der Privatsphäre, auch bei unverschlüsselten Mails, immer empfehlenswert. Wer damit Leben kann, Mails als Plaintext ohne HTML angezeigt zu bekommen, sollte das Anzeigen von HTML in Mails deaktivieren und ist damit nach aktuellem Kenntnisstand erst mal sicher.
Mail-Programme und Plug-ins aktualisieren
Laut der Veröffentlichungen der Efail-Entdecker ist S/MIME weitaus angeschlagener als PGP. Eigentlich sind alle von ihnen getesteten Programme, die HTML und S/MIME unterstützen, betroffen. Beim Einsatz von PGP sind vor allem Thunderbird (mit Enigmail), Outlook 2007, Apple Mail und Airmail betroffen.
Anwender sollten jetzt vor allem ihre Mailprogramme und Verschlüsselungs-Plug-ins aktualisieren. Die Enigmail-Entwickler empfahlen auf Nachfrage von heise online, mindestens auf Version 2.0 des Plug-ins zu aktualisieren, in dem die Efail-Lücken bereits geschlossen wurden. Nutzer mit aktuellen Thunderbird- und GPG-Versionen sollten dieses Update über die automatische Update-Funktion des Plug-ins bereits erhalten haben. Thunderbird hat mit Version 52.7 fast alle der Sicherheitslücken geschlossen, Version 52.8 verspricht weitere Fixes. Bis dahin empfehlen die Entwickler, Mails nur als Plaintext anzuzeigen.
Sichere PGP-Clients
Die PGP-fähigen Mailprogramme K-9 Mail und Delta.chat für Android waren nicht von den Lücken betroffen. Das teilten deren Entwickler auf der Mailingliste des PGP-Werkzeugs autocrypt mit. Man beobachte die Situation allerdings aufmerksam und werde auch diese Apps updaten, falls das in Zukunft nötig wird. Die Entwickler wollen also nicht ausschließen, dass nicht doch noch Wege entdeckt werden, wie man die Efail-Schwachstellen mit ihren Apps ausnutzen kann.
Die Programme des pEp-Projektes sind ebenfalls nicht angreifbar, da sie aus Sicherheitsgründen das Nachladen von externen Bildern deaktiviert haben. Wie uns die Entwickler mitteilten, konnten sie Angriffe auf Efail-Angriffe auf pEp for Outlook nicht reproduzieren.
Grundsätzlich lassen sich alle Risiken nur mit Veränderungen an den zugrundeliegenden Protokollen für PGP und S/MIME ausräumen. Die Protokolle müssen besser die Integrität der verschlüsselten Mails sicherstellen, damit Angreifer diese nicht auf dem Weg zum Empfänger manipulieren können. Bis solche grundlegenden Änderungen greifen, wird allerdings noch einige Zeit ins Land gehen.
Mails extern entschlüsseln, HTML abschalten
Am sichersten ist es, verschlüsselte Mails nicht im Mail-Client zu entschlüsseln. Die Entdecker der Efail-Lücke empfehlen, den verschlüsselten Ciphertext aus der Mail zu exportieren und in einem eigenständigen Programm (etwa der Kommandozeilen-Ausgabe von GPG) zu entschlüsseln. Auf diesem Wege kann ein eventuell anfälliges Mailprogramm oder dessen Plug-Ins den geheimen Inhalt der Nachricht nicht an den Angreifer im Web verraten. Allerdings ist das ein sehr umständlicher und für die meisten Endbenutzer wohl unakzeptabler Ansatz.
Wer seine Mails trotzdem im Mailprogramm entschlüsseln will oder muss, der schaltet am besten den Empfang von HTML-Mails ab und lässt alle Nachrichten als Plaintext darstellen. Das stopft zwar nicht alle möglichen Schwachstellen, sollte momentan allerdings so gut wie alle praktischen Angriffe verhindern. Entsprechend sind auch Plaintext-Only-Clients wie Claws oder Mutt nicht betroffen.
Auch die meisten Web-Apps scheinen sicher zu sein. Eine Ausnahme bildet Gmail mit S/MIME und auch der Mailer Horde ist für GPG-Angriffe und, falls der Nutzer mithilft, für die S/MIME-Schwachstellen verwundbar. Roundcube scheint unter bestimmten Umständen für PGP-Lücken anfällig zu sein. Es bleibt zu hoffen, dass die Anbieter die verbliebenen Lücken bald schließen. Admins von Webmail-Systemen sollten hier auf jeden Fall ein wachsames Auge auf Updates halten und diese zeitnah einspielen.
Besitzer einer Xbox 360 oder der Wii U können mit Minecraft noch im Aquatic-Update in die Tiefsee tauchen. Wer dann Erweiterungen mit neuen Inhalten möchte, muss laut Entwickler Mojang mit einer der neueren Konsolen spielen.
Das zu Microsoft gehörende Entwicklerstudio Mojang will das Aquatic-Update noch für alle Konsolen veröffentlichen, auf denen Minecraft derzeit läuft. Danach soll es größere Erweiterungen aber nur noch für die Fassungen des Klötzchenspiels geben, die auf der neuen Bedrock-Engine und auf Java basieren – also für die Xbox One, die Switch von Nintendo, die Versionen für mobile Plattformen (iOS und Android) sowie für Windows 10. Einzige Ausnahme ist die Playstation 4, die ebenfalls weiter mit Updates versorgt werden soll.
Keine Erweiterungen, sondern wohl nur noch kleinere Fehlerkorrekturen und ähnliches soll es hingegen nach der Veröffentlichung von Aquatic für die Playstation 3, die Xbox 360, die Playstation Vita sowie die Wii U geben. Als Grund für diese Entscheidung nennen die Entwickler in ihrem Blog, dass diese älteren Plattformen nur noch von fünf Prozent der aktiven Spieler verwendet würden, so dass sich der Aufwand nicht mehr lohne.
Angesichts der riesigen Verbreitung von Minecraft dürfte diese Entscheidung allerdings immer noch ein paar Hunderttausend Spieler betreffen, entsprechend groß ist die Empörung in einigen Foren und in sozialen Netzwerken.
Mit der Tiefsee-Erweiterung, die offiziell den Namen The Update Aquatic trägt, soll Minecraft um Fische und Delfine, erkundbare Schiffswracks und andere unterseeische Elemente ausgebaut werden. Auch die Wasserphysik wollen die Entwickler spürbar verbessern, dazu kommt ein Dreizack als neue Waffe. Einen konkreten Termin gibt es nicht, allerdings möchte Mojang das kostenlose Update nach eigenen Angaben noch im zweiten Quartal 2018 veröffentlichen. Zuerst soll das Addon für die Bedrock- und die Java-Fassungen erhältlich sein, wenig später dann auch für die Playstation 4 und die älteren Konsolen.
Der Skandal um den Mißbrauch von Facebookprofilen geistert nunmehr schon seit mehreren Wochen durch die Medien. Was das heißt, beschreibe ich in diesem Artikel.
Googles Tracking
Es war schon ein Hype, der an der Schwelle des 20. Jahrhunderts mit einer neuen Suchmaschine aus Silikon Valley losgetreten wurde. Auch ein neues soziales Netzwerk, was um 2005 an den Start ging wurde hoch gelobt. Alles war neu… und besser… und schneller. Die Suchmaschine, Google genannt, lieferte auf Stichworte hin bessere Treffer, war schneller und krempelte den Suchvorgang im Netz um. Es wurden zur Suche nicht nur Schlagworte verwendet, die der Seitenbetreiber angeben konnte. Es wurden sämtliche Verlinkungen auf die Seite relevant, aber auch wie gut andere Seiten besucht sind, die auf die eigene Seite verlinken.
Content – also der Inhalt der eigenen Seite – wurde immer wichtiger und wie oft spezielle Schlüsselwörter (die der geneigte User in die Suchzeile eingibt) im Inhalt vorkommen. Spezielle Wörter – sogenannte Adwords – kann man beim Suchmaschinenbetreiber gegen Bares erwerben. Für Webmaster und Seitenbetreiber bietet Google auch umfangreiche Analysetools an, die Aufschluss über ds Nutzerverhalten auf der Webseite geben und was den User interesiert, das sogenannte Google Analytics.
Sucheingaben und das, was der Nutzer in der Suche angeht, interessiert Google. Das ganze wird angeblich anonymisiert gespeichert. Hat man bei Google Plus (G+) ein Profil mit Namen, Adresse, Vorlieben und anderen Daten gespeichert, werden Suchanfragen personalisiert, was die Daten für Google noch wertvoller macht. Dann sind da noch die ganzen Android-Smartphones. Auf denen ist Google omnipräsent, ohne Google läuft da recht wenig. Neben GPS-Trackern (für Navi) befinden sich noch eine ganze Menge andere Sensoren im Handy. Zudem gibt man seinem Smartphone doch eine Menge vertraulicher Daten in den Speicher – Kontaktdaten, Nutzungsdaten auch bei der Navigation. Aber auch andere Apps nehmen sich einige Rechte heraus, die sie eigentlich nicht brauchen. So bekommt Google noch mehr Daten, auch wenn man nicht am heimischen PC sitzt.
Facebooks Datensammelei
Facebook spielt in einer ähnlichen Liga wie Google. Hier wird man explizit aufgefordert ein Profil anzulegen, um sich mit anderen Leuten, sogenannte Freunde, zu vernetzen. In Profil gibt man schon allerhand von sich preis, neben Name, Anschrift, Interessen und vieles mehr. Auch wenn man spezielle Webseiten „liked“ wie es im Facebookjargon heißt, weiß Facebook, was einem gefällt.
Vom surfen im Internet kennt jeder die kleinen Facebooksymbole – ein Daumen nach oben – mit denen man Webseiten mit einem Klick in seinem Facebook-Profil verlinken kann. Auch ohne ein solches Profil fließen schon Daten über die besuchten Seiten, IP Adresse vom Rechner, aber auch Infos zu installierter Software (Betriebssystem, Browser etc.) zu Facebook ab. Ist man beim sozialen Netzwerk registriert, hat man also ein Profil dort, werden die Surfdaten mit dem Profi verknüpft – auch wenn man sich für den Moment bei Facebook ausgeloggt hat. Ähnlich wie Google sammelt Facebook die Daten – wenn sie durch ein Profil personalisiert sind werden diese um so wertvoller – und verwurstelt diese zu personalisierter Werbung.
Kurz zusammengefasst: Jeder Klick wird gespeichert und wenn das still und heimlich im Hintergrund passiert, nennt man das Tracking. Nutzt man die Services von Facebook, Google und co, so spielt man denen zusätzlich in die Hände. Man kommt aber weder als normaler Nutzer oder als Webseitenbetreiber nicht drum herum, die Services aus Mangel an sinnvollen Alternativen in irgendeiner Form zu nutzen. Man kann ungewollten Datenabfluss aber eindämmen, es gibt dafür mehr oder minder effektive Tools.
Gegenmaßnahmen
Abwehrmaßnahmen für den Einsteiger
Fangen wir beim Browser auf dem Computer an. Und zwar hat die Mozilla-Stiftung Ende März ein neues Plugin für den Firefox vorgestellt, was einen Tab mit geöffnetem Facebook in einem Container isolieren soll. Hat man nebenher weitere Internetseiten offen, beispielsweise mit dem angesprochenem Daumensymbol, so werden keine weiteren Daten (wie besuchte Webseite, Software etc.) an Facebook übermittelt. Dieses Plugin gibt es für jede Firefoxvariante. Nutzt man im Browser noch Plugins uBlock und NoScipt, fließen Daten auch nicht zu anderen Werbenetzwerken ab.
Um das besagte Plugin zu installieren einfach im AddOn Manager nach dem Facebook Container von Mozilla suchen. Mittlerweile gibt es einen Fork von diesem AddOn mit dem sprechendem Namen Google Container, der aber von einem anderen Entwickler betreut wird und nicht von Mozilla. Dieses Addon arbeitet im Prinzip genau so wie das Offizielle Anti-Facebook Plugin von Mozilla.
Weiterhin gibt es noch Werbeblocker wie AdBlock oder uBlock für den Firefox zu installieren. Beide Addons sind für sämtliche Firefoxvarianten erhältlich und das kostenlos. Diese Addons blockieren recht zuverlässig Werbung beim Surfen und verhindern somit auch das ungewollte Tracking. Zudem bieten die hier vorgestellten Softwarelösungen auch einen gewissen Grundschutz vor Schädlingen wie Trojanern und Co, da viele dieser Schadprogramme auch über Werbenetzwerke verteilt werden. Allerdings greifen diese Softwarelösungen nur auf dem Rechner auf dem sie gerade eingesetzt werden. Smart-TV oder Daddelbox werden außen vorgelassen und können unerlaubt Werbung bekommen.
[Update] Die hier vorgestellten AddOns gibt es für Firefox und für Chrome.
Die Profiprivatisierung
Ich nutze für mich und mein Netzwerk allerdings die Profivariante. Auf einem Orange Pi – das ist ein kleiner Einplattinencomputer wie der Raspberry Pi – läuft eine PiHole-Installation.
„Was ist denn nun PiHole schon wieder?“
Das Internet arbeitet mit sogenannten Domains, wie www.medienspuernase.de. Gibt man diese Domain in seinem Browser ein, oder klickt man auf einen Link dazu, so sucht der Browser im Internet auf einem DNS-Server (DNS=Domain Name System) nach einer passenden IP Adresse dazu, zu der er dann die Verbindung aufbaut und sich die entsprechenden Daten abholt.
Allerdings besteht eine Internetseite aus vielen einzelnen Teilen – Texte, Bilder, Videos, Formulare, Facebooks Like-Buttons, Werbung und anderen Sachen. Oftmals sind Dinge wie Videos, Like Buttons und Werbung extern eingebettet. Das heißt, daß ein Video zum Beispiel bei Youtube liegt und mittels speziellem Link ein Player in die Webseite eingebettet wird, der das Video direkt auf der Webseite abspielt. Schon ein Besuch auf einer Seite, die ein solches Video eingebettet hat oder auf der ein Like-Button vorhanden ist, sendet an betreffende Betreiber (Facebook, Youtube…) ungewollt Informationen.
Werbung ist im Prinzip genauso eingebettet – das sind Links, die automatisch Inhalte aus Fremdquellen nachladen. Für jede besuchte Domain – die Medienspürnase, Youtube oder Werbedomains – macht der Browser immer vorher eine DNS Abfrage, nach der IP-Adresse.
Eine IP-Adresse ist im Prinzip mit einer Telefonnumer vergleichbar, die einem bestimmten Festnetzanschluß oder einem Handy zugeordnet ist. So besitzt jeder Computer, jeder Server (und damit jeder Webdienst) und jedes netzwerkfähige Gerät eine eigene IP-Adresse, die nur ihm gehört. Das ist wichtig, damit die einzelnen Geräte untereinander kommunizieren können und Daten austauschen können.
Und genau da greift PiHole ein. PiHole ist im Prinzip nichts anderes als ein DNS-Server, nur mit der Besonderheit, daß der zum Ersten im eigenem Netzwerk steht und zum zweiten mit Blacklisting und Whitelisting funktioniert. PiHole ist mit dem heimischen Internetrouter verbunden. Das darf via Kabel (Ethernet, LAN) oder kabellos (W-LAN) passieren. Jede Anfrage von einem im Netzwerk hängendem Gerät läuft nun über unser PiHole. PiHole ermittelt jetzt nun die IP-Adresse beispielsweise von www.Medienspürnase.de, blättert aber in den angegebenen Listen nach, ob die Domain durchgelassen werden darf oder auch nicht. Das geschieht mit jeder gleichgearteten Anfrage, genauso bei Facebook, Google oder Werbung. Unerwünschtes wird blockiert und erwünschte Inhalte dürfen passieren.
PiHole ist zudem recht flexibel zu konfigurieren, so daß der Schutz von Paranoia (alles wird blockiert und muß manuell freigeschaltet werden) bis leicht (nur einige Sachen werden blockiert) eingestellt werden kann. Das will heißen, der geneigte Nutzer kann blockieren was er will, oder über die Whitelists alles, was er braucht wieder freischalten.
Ich schrieb ja, daß PiHole die Blockierlisten namhafter Adblock-Plugins von Browsern nutzt. PiHole wendet diese Blockierlisten auf alle Geräte, die ihren Traffic ins Internet haben, an. Zudem ist es eine zentralisierte Lösung, die leicht zu warten ist und auch keine hohen Hardwareanforderungen stellt. Es reicht schon wenn die auf einem Einplatinenrechner mit 10 Watt Stromverbrauch läuft.
[Update] In Deutschland und der EU sind die Datenschutzanforderungen sehr hoch angesiedelt, leider sind Kontrollen durch betreffende Behörden rar. Dafür allerdings gibt es eine reihe Anwälte, die sich selbst mit Abmahnungen bereichern, werden irgendwelche (vermeintliche) Verstöße aufgedeckt oder angezeigt. Die meisten größeren Webseiten und Portale in Deutschland wissen selbst um die Gefahr durch dubiose Anwälte oder den Staat abgestraft zu werden.
Deshalb setzen immer mehr Webseitenbetreiber auf Datenschutzkonforme Lösungen, beispielsweise bei den Like-Buttons von Facebook und co. Ich schrieb bereits vor geraumer Zeit darüber, daß es sogenannte Zwei-Klick Lösungen für alle erdenklichen Webseiten gibt. Diese Buttons haben den Vorteil, daß man die Like-Funktion mit dem ersten Klick aktiviert und beim zweiten Klick den Link sendet.
Mittlerweile bin ich schon seit geraumer Zeit noch einen Schritt weiter gegangen. Der Heise Verlag bietet für WordPress und andere Contant Managementsysteme ein Plugin namens Shariff an. Das platziert die Like-Buttons als simplen HTML-Link, der mit stinknormalem CSS gestaltet wurde unter die Artikel. Reines HTML und CSS sendet von sich aus nichts, nur nach einem Klick auf den Button öffnet sich ein Anmeldefenster für das besuchte soziale Netzwerk zum teilen.
Der Aufwand um die eigenen Daten besser zu Schützen bleibt auf einem erfreulich niedrigem Niveau, gerade bei den Addons für die gängigsten Browser. Hier punkten Firefox und Chrome gegenüber Internetexplorer und Edge. Die Addons für die Browser aktualisieren sich in gewissen Abständen automatisch und ohne den Nutzer zu belästigen. Bei PiHole dauert das Aufsetzen schon ein wenig länger. Man benötigt eine gewisse Hardware und man ist da schon mit 40 bis 50 Euro plus Stromkosten dabei. Die Einarbeitung und Konfiguration dauert hier natürlich, wenn es aber läuft bietet es einen zuverlässigen Schutz. Wenn es optimal konfiguriert ist, zieht es sogar Updates von selbest. Der Aufwand wird der Laufzeit geringer. Anfangs ist das System auf sein Surfverhalten zu trainieren, denn einige Seiten, die man gern besuchen würde, landen vielleicht schon in der Blackliste, von der man sie in die eigene Whiteliste herausholen muß. Beide Maßnahmen zu kombinieren ist recht Sinnvoll. Nutzt man PiHole, so können die Ad-Blocker und Container Plugins noch störende Platzhalter beim Browser entfernen. Vielleicht arbeiten dann bei euch die Sachen so miteinander, daß diese sich ergänzen?
HD+ baut das UHD-Angebot weiter aus und ermöglicht seinen Kunden ab dem 28. und 29. April 2018 den Empfang des linearen UHD-Kanals.
Mit dem Formel-1-Rennen aus Baku in Aserbaidschan startet die Mediengruppe RTL Deutschland am 28. und 29. April seinen Kanal „RTL UHD“ auf der Satelliten-TV-Plattform HD+. Auf dem Kanal sollen in 2018 weitere 17 Formel-1-Rennen inklusiveder Qualifyings ultrahoch aufgelöst ausgestrahlt werden – parallel zur Übertragung in HD.
Zudem steht bereits mit dem Finale von „Deutschland sucht den Superstar“ am 5. Mai eine weitere UHD-Übertragung fest. Diese Sendung wird auf RTL UHD zudem mit erhöhtem Kontrastumfang (High Dynamic Range, HDR) im Format Hybrid Log-Gamma (HLG) laufen, das von vielen Fernsehern bereits unterstützt wird.
Der lineare Ultra-HD-Testkanal „RTL UHD“ ist zunächst zeitlich limitiert bis Ende 2018 verfügbar. HD+ ist exklusiver Verbreitungspartner von „RTL UHD“ via Satellit, das erweiterte Angebot ist für HD+ Kunden mit UHD-TV ohne Zusatzkosten empfangbar. „RTL UHD“ ist neben UHD1 by HD+ und Travelxp 4k bereits das dritte UHD-Angebot, welches über Satellit exklusiv nur mit HD+ zu sehen ist.
… mit Playstation Controllern dran, auf der Mario Kart 64 lief und dann noch mit Commodore Logo obendrauf? Wie passt das denn zusammen? Und wie zum Geier hast du es fertig gekriegt der Fritzbox ein Video-Signal und Audio zu entlocken? Das ist ja mal eine wirklich Sinnvolle Verwendung von so einer Fritzbox…
Erst einmal von Anfang an. Am vergangenem Wochenende, dem 21. April, war wieder einmal Spielenacht in Leipzig. Ich berichtete schon früher darüber. Diesmal war ich nicht nur zu Besuch dort, ich habe auch ausgestellt. Drei Systeme hatte ich am Start.
Einen Amiga 500 auf dem ich verschiedene Titel laufen hatte, unter anderem Lotus Turbo 3, Sidewinder, Turrican und diverse andere kurzweilige Spielchen, die zu so einem Event passen. Der (die) Amiga war schon der Alterspräsident unter meinen Systemen. Baujahr irgendwann zwischen 87 und 1990/92. Hardcorefans sehen schon am Gehäuse, welches Baujahr das genau ist. Die Altersangaben sind meinerseits nur um das System für Laien zeitlich einzuordnen.
Mein zweites System war dann doch nicht mehr ganz so retro. Es handelte sich dabei um eine Playstation 3. Die gibt es erst seit 2005, aber ich bin seit 2011 im Besitz einer Slim-Variante. Es liefen da unter anderem Soul Calibour 5, Steetfighter 4 Ultra, aber auch Need for Speed Hot Pursuit 2.
Das dritte System hatte es in sich. Es ist das jüngste meiner drei Systeme. Häufig mußte ich die Frage beantworten, was eine Fritzbox, mit einem Nintendo 64(Mario Kart 64) oder Playstation One Sytem (Tekken 3), Commodore und den Controllern einer Playstation 3 zu tun hat. „Wie passt das denn zu sammen?“ Klang es häufig. „Wie zum Geier kriegst du auf einer Fritzbox Mario Kart 64 zum Laufen? Das ist doch nicht dein Ernst oder?“ Ein Nerd der meinen Stand begutachtete lachte sogar und meinte daß die Fritzbox sinnvoller für Spiele genutzt wird als für ihre ursprunglichen Zwecke…. ob der schon was geahnt hat als er die gesehen hat?
Die Fragen beantworte ich euch nach einigen Bildern zu meinem Stand und einigen Worten zum Event insgesamt.
Wieder hatte man bei sonnigem Wetter einige Retro- und Brettspielbegeisterte Aussteller zusammentrommeln können. Dazu gab es noch ein professionelles e-Sport Team, was seine Spiele auf den eigenen Rechner gezeigt hat, Robo-Fußball und wieder einmal Lötkurse vom Makerspace.
Aussteller waren wie immer recht international vertreten (wenn man nur das deutsche Bundesgebiet und Sachsen als Gastgeberland nimmt). Berlin, Nürnberg, Vogtland…. sogar Hamburg war mit Publikum vertreten (Grüße an Robin und Patrik vom Retrokompott).
Untermauert wurde das ganze wieder von zahlreichen tollen Vorträgen, die auch ziemlich gut wahrgenommen wurden.
Stand der Medienspuernase Seite 1 - Amiga 500 rechts und Links die Playstation 3
Roboter Fußball
Familienspaß an der Commodores Fritzbox mit Mario Kart 64
So, jetzt die Geschichte, die hinter der ominösen Playstation-Fritz-Commodore-Box auf der auch noch ein Nintendo 64 Spiel lief steckt.
Die Idee kam mir bereits letztes Jahr, als ich eine defekte Fritzbox 7390 aus dem Elektroschrott gezogen habe. Die Elektronik an sich war mit meinen eher begrenztem Wissen in Elektrotechnik nicht zu reparieren. Das Gehäuse hat es mir aber ein bisschen angetan. Als erstes habe ich in den Boden ein paar 3 mm große Bohrungen gesetzt – für einen Raspberry Pi Modell 3 und einen 50 mm großen Radiator, der das ganze System ein bisschen kühlen sollte, sowie eine kleine Zugentlastung für die Anschlüsse (HDMI).
Die Fritzbox mit diesem flunderartigem Gehäuse im rot-grauem Look wird hierzulande recht gut verkauft und steht mit Sicherheit in vielen deutschen Haushalten. Gehäuse, die direkt für den Raspberry Pi hergestellt werden, stapeln sich bei namhaften Versandhändlern in den Regalen und werden auch haufenweise für mehr oder minder wenig Geld an den Bastelfritzen gebracht. Das naheliegenste für mich war, das Gehäuse der Fritzbox professionell von einer Künstlerin brushen zu lassen. Sie hat es tatsächlich geschafft, diesem Stück Plastik das Aussehen eines alten und abgewetzten Computers zu geben. Als Amigafan konnte ich es mir natürlich nicht verkneifen ein Logo meiner Lieblingscomputerfirma auf die Oberseite brushen zu lassen. Die Tarnung der Fritzbox ist perfekt gelungen. Vielen Dank für ein wirklich gelungenes Werk Alexandra.
Was die Wahl meiner Controller angeht… Da gibt es weder Geheimnisse oder Gerüchte drum herum. Zum ersten ist das eine recht praktische Überlegung gewesen und zweitens eine finanzielle. Die oben gezeigte Playstation 3 steht sowieso bei mir unter dem Fernseher und dient nicht primär nur zum Spielen sondern auch als BluRay und DVD Player ohne Regionalcodes. Zwei Controller lagen schon bei und die beiden anderen, naja die sollten da als Reserve dienen, fals einer ausfällt und auch meine Commodore-Fritzbox mit Nintendo-Faible bedienen, was ja auch super geklappt hat.
Kurz vor der Spielenacht stand dann auch das Design und das Gehäuse war fertig. Im Vorfeld wurde eine Software auf Basis von Rasbian aufgesetzt. Raspbian ist eine für den Raspberry Pi angepasste Version von Debian. Es liefert schon eine Auswahl an Emulatoren mit und einige weiter kann man sich aus dem Netz nachladen. Das Linux mit den Emulatoren ist an sich frei erhältlich, Linux ist Opensource und die Emulatoren dazu auch. Das System heißt (Bastler werden es kennen) Retro-Pi. Retro-Pi hat als Grundlage das oben beschriebene Raspbian, welches eben für die Emulatorengeschichte noch ein bischen mehr angepasst wurde, damit Spiele und andere Software richtig läuft. Die Spiele an sich und die Firmware einiger Konsolen sind allerdings sogenannte Abandonware und werden nicht mitgeliefert. Abandonware – das bezeichnet eine Software, wo man nicht mehr weiß wo die Urheberrechte liegen. Spiele muß man sich allerdings erst noch in das System einpflegen, je mehr es sind, desto länger dauert es
Ein Emulator ist im Prinzip auch nur eine Software, die einen alten Computer oder eine Spielkonsole simuliert und den Spielen, die ausgeführt werden sollen, eine Umgebung bietet, wo sie drin laufen können.
Update zur Commodore-Fritzbox
Aktuell kamen auf verschiedenen Kanälen weitere Fragen zur Fritzbox herein, die ich an dieser Stelle noch gerne beantworten möchte.
Als Softwaregerüst habe ich, wie schon erwähnt Retro-Pi verwendet, ein auf Emulation angepastes Raspbian mit einem eigenen Desktop, der stark an den der Playstation angelehnt ist. Emuliert habe ich im Prinzip Geräte wie den Tandy von RadioShark, verschiedene Atari Konsolen und Heimcomputer (Atari VCS, Atari 2700, Atari ST…) verschiedene Geräte von Commodore (Amiga, C64, C128…), Spectrum ZX80/81, Schneider und Amstradt CPC, Diverse Nintendokonsolen (NES, SNES und N64) sowie die Playstation One sowie mit der DOS-Box MS-DOS PCs.
Die meisten Ressourcen des Raspberry Pi verschluckt die Emulation von Spielen der N64, da taktet der kleine Kerl in der Fritzbox ziemlich hoch. Zwecks Luftzufuhr habe ich den Auf den Kopf gestellt (Prozessor nach unten) und einen 50 Millimeter Lüfter installiert, den ich an den 3,3 Ampere GPIO-Pin des Raspberry Pi angeschlossen habe. Wenn diese Konsole mal nicht zum Spielen benutzt wird, steht sie mit Kodi (auf einer anderen Speicherkarte) zum Filme und Serien streamen am Fernseher genutzt.
Verwendet wird eine 32 GB MicroSD Karte von Samsung als Datenträger. Die größten ROMs, die darauf gespeichert sind, sind die der Playstation One, da die damals schon ein CD Laufwerk hatte und man den Speicher auf den Sliberscheibchen (650 bis 700 MB) voll ausnutzte.
Ein Kommentar zur Bericherstattung zu Facebooks Datenskandal
Durch einen unglücklichen Zufall war einem hochprofitablen Internetkonzern die Maske verrutscht und alle Welt ist sich plötzlich einig: Facebook – das geht ja überhaupt nicht. Das daumensenkende Publikum muß sich jedoch die Frage gefallen lassen: „Warum hat man bisher übersehen, daß der Kaiser nackt ist?“ Selbst der Stammtisch sollte sich doch gewundert haben: Das, was Zuckerberg (nomen est Omen) wie im Schlaraffenland kostenlos verteilt, spült ihm – irgendwie – jedes Jahr erneut Milliarden Dollar in seine Kasse.
Im richtigen Leben muß man aber für alles bezahlen, sogar für den eigenen Tod (den zahlt man bekanntlich mit dem Leben). Bei Facebook aber nicht. Was ist da faul? Nichts. Alles ist gut. That’s Social Media – Narzissmus für alle. Ein begeisterndes Geschenk – und jeder greife sich seinen Teil. Wer sich ziert, der bleibt außen vor. Milliarden Nutzer können sich doch nicht irren. Kein Zweifel. Kein Zweifel?
Wo haben diese Arglosen ihr Gehirn abgegeben? Solches Schwarmverhalten ist meiner Meinung nach bedenklich. Denn es wird ein Leichtes sein, die Community nicht nur zum Konsumrausch, sondern auch in sozial-egomane Scharmützel zu manövrieren. Selbstverständlich gratis. Erste Bemühungen in dieser Richtungen sind nicht zu übersehen. Natürlich kann man dem Konzern nur per Regulierungsbehörde das Geschäftsmodell vermiesen. Die Ämter werden danach aber erstaunt feststellen, daß sie sich plötzlich in einem ganz anderen Märchen wiederfinden, nämlich dem vom Hase und vom Igel. Was also könnte man tun? Die Antwort dazu ist einfach: Einfach selbst denken.
In den ersten Windows-Versionen gab es statt des Explorers einen „Datei-Manager“. Dessen Quelltext hat Microsoft jetzt unter einer Open-Source-Lizenz freigegeben.
Bevor Windows 95 erschien, war das Windows-eigene Fenster zum Dateisystem ein Programm namens „Datei-Manager“. Besonders wehmütig hat sich offenbar der Microsoft-Mitarbeiter Craig Wittenberg an diese Zeit zurückerinnert: Er hat den Datei-Manager von Windows NT 4 seit 2007 ständig gepflegt und an neue Versionen von Windows und der Entwicklungsumgebung Visual Studio angepasst. Das Ergebnis seiner Arbeit wurde jetzt unter der MIT-Lizenz als Open Source veröffentlicht.
Auf der GitHub-Seite des Windows File Manager finden sich zwei Entwicklungszweige: Die mit „original_plus“ markierten Dateien enthalten den Datei-Manager weitgehend in seinem Originalzustand, lediglich angepasst an aktuelle Windows-Versionen und Compiler. Im „current master“ finden sich darüber hinaus einige Ergänzungen und Verbesserungen Wittenbergs, darunter zusätzliche Kontextmenüs und eine erweiterte Dateisuche. Programmierer sind eingeladen, das Projekt mit eigenen Ideen und Vorschlägen weiterzuentwickeln.
Wer in Erinnerungen schwelgen oder das Programm einfach mal live erleben will, findet auf GitHub nicht nur den Quelltext des Datei-Managers, sondern auch eine vorkompilierte ausführbare Datei.
Nach einem reichlich langem Artikel Anfang des Monats über das Bloggen, habe ich nun die restlichen Sachen zu diesem Thema zusammengestellt. In diesem Beitrag geht es hauptsächlich um ein paar Plugins, die einem Blogger das Leben in WordPress leichter machen, aber auch um ein paar Dinge, die ihr grundsätzlich beachten solltet, um euch ein Kreuz gegen Abmahnanwälte an die Tür zu nageln. Das sind natürlich nur allgemeine Tips und ersetzen keine Beratung. durch einen Fachanwalt. Suchmaschinenoptimierung ist auch noch ein kleiner Punkt den ich anspreche.
WordPress aufgebohrt
Hat man seine ersten paar Artikel verfasst und schon den einen oder anderen Kommentar im Gästebuch eingeheimst, möchte man seinen Blog gern ein bisschen weiter aufbohren.
Aufbohren – damit meine ich ein paar Funktionen für leichteres Arbeiten, aber auch neue Features für Besucher hinzufügen. Das Einfügen von neuen Funktionen in WordPress geht am besten über das Pluginverzeichnis aus dem Backend heraus. Im Laufe der Zeit haben sich da bei mir so einige Sachen angesammelt.
Plugins für SSL Verschlüsselung, WYSIWYG Editoren im Backend, Diashows für Bilder und einiges mehr. Hier stelle ich eine kleine Auswahl meiner Plugins vor. Das soll keine der Listen mit den 10 oder 20 besten AdOns für WordPress werden, wie sie schon zu Hauf im Internet kursieren. Einige habe ich in früheren Artikeln auch schon besprochen.
Die Antispam Bee zum beispiel ist ein fleißiges Bienchen, welches Kommentarspam abfängt. Dazu werden ein paar für den normalen Benutzer unsichtbare Felder in die Kommentarfunktion eingefügt, die, wenn ausgefüllt, der Biene anzeigen, daß da ein Spam-Bot am Werke war. Das Ganze geht sogar ganz datenschutzfreundlich ohne IP-Tracking durch fremde Server.
What you See is what you Get (ausgesprochen für WYSIWYG) ist eine grafische Alternative für den Textbasierten Editor in WordPress. Solcher Alternativen gibt es viele, ich nutze da WP-Edit. Das ist ein Editor, der mir die WordPress eigene Oberfläche mit einer recht großen Funktionsvielfalt aufbohrt und sich ein bisschen wie ein älteres Word (ohne Ribbons) anfüllt. Man markiert eine Textpassage und klackert auf ein Symbol seiner Wahl und schon wird der Text so formatiert wie man möchte. Ansonsten muß man mit Shortcodes herumhantieren, um die gewünschten Ergebnisse zu erzielen.
TablePress, WP YouTube Lyte und Meta Slider sind 3 Plugins, die diverse Inhalte Zentral verwalten. TablePress generiert, wie der Name schon Sagt, Tabellen. Diese Befüllt man außerhalb vom WordPress Editor und fügt einen Shortlink in den zu bearbeitenden Text ein. Man braucht hier kein Quäntchen an Scriptsprachen zu erlernen. Der Nachteil allerdings ist, daß diese Tabellen in Javascript erstellt werden was manch ein User blockieren mag. WP YouTube Lyte ist ein schmaler HTML Player für YouTube Videos. In einem Zentralen Menü kann man global für den ganzen Blog die Größe und Ausrichtung des Players einstellen. Einfach die URL eines Youtube Videos in den Beitrag kopieren und das http:// zu einem httpv:// erweitern. MetaSlider erstellt eine Slideshow aus Bildern, die mit WordPress. Wieder kann man für jede Slideshow Zentral sämtliche Einstellungen anpassen.
Insgesamt gibt es tausende sinnvolle und mindestens genausoviele sinnlose Plugins für den eigenen Blog mit WordPress. Im Endeffekt hängt es von den eigenen Vorlieben ab, wie man seinen Blog erweitern möchte. Auch unter der Haube gibt es viel zu tun. Man möchte bei Google und Co gut gefunden werden, also muß man ein bisschen SEO (ausgesprochen für Searche Engine Optimizing – neudeutsch für Suchmaschinenoptimierung) betreiben. Auch hierfür gibt es viele Plugins. Patentrezepte für dieses Themenfeld gibt es nicht, manchmal ist auch weniger etwas mehr.
Mehr Vielfalt
Wie der geneigte Leser schon bemerkt hat, gibt es vielfältige Funktionen und Zubehör zum WordPress-Blog. Um aus diesen vielfältigen Möglichkeiten das richtige und für sich passende Zubehör herauszufinden benötigt Geduld und einiges an Ausprobieren. Es gibt im Netz zu Hauf Listen mit Top 10 Plugin Listen und Tutorials. Wichtig ist es beim Ausprobieren zu wissen, daß man beim Produktivsystem regelmäßig ein Backup macht um bei Fehlkonfigurationen wieder auf einen vorherigen Stand zurückzukommen.
Besser ist es beim Webhoster oder via XAMPP zusätzlich ein Testsystem mit der gleichen Konfiguration und Inhalten einmzurichten. Dort kann man in aller Ruhe neue Funktionen ausprobieren, ohne Gefahr zu laufen, das eigene Produktivsystem zu zerschießen.
Search Engine Optimizing
Hier bietet auch WordPress wieder eine Menge an nützlicher Plugins, die man sich zusätzlich installieren kann. Warum eigentlich Search Engine sonstnochwas? Die Frage ist leicht beantwortet. Ihr möchtet doch mit eurem Blog doch auch bei Google und Co gefunden werden. Natürlich macht schon guter Content (neudeutsch für Inhalt) viel aus. Bilder, Ton, aber auch entsprechend gute Texte mit den entsprechenden Schlüsselwörtern (Keywords) sind da prägend. Darauf nimmt Google sehr viel Rücksicht, aber auch ob eure Seite für mobile Geräte wie Smartphones oder Tablets optimiert ist beeinflußt das Ranking. Google gewichtet auch die Links, die auf verschiedenen Seiten zu eurer Seite gesetzt sind zu einem gewissen Teil. Je Prominenter die Seite, die auf euren Blog verweist, desto besser bewerten die Suchmaschinen das, Linkfarmen allerdings bekommen einen Daumen nach unten.
Für SEO nutze ich zum Beispiel das Plugin All in One SEO Pack. Es bietet mir in der freien Version eine XML Sitemap an, eine art „Landkarte“ des Blogs. Es listet für die Suchmaschinen gut verständlich alle zugänglichen Links auf. Weiterhin bietet es kurze Beschreibungen der Artikel einzugeben und Keywörter dafür zu definieren.
Duplicate Content Cure richtet WordPress so ein, daß mehrere Links auf einen und den selben Artikel im gleichen Blog (beispielsweise aus der Navigation oder der Archivseite) nicht als doppelter Content bewertet wird. Doppelter Inhalt wird auch von den Suchmaschinen abgestraft.
Natürlich sind regelmäßig veröffentlichte Artikel die Beste Werbung. Diese lassen die Suchmaschinen öfter vorbeischauen und Aktivität kommt immer an. Allerdings gibt es kein Patentrezept für gute Suchmaschinenoptimierung. Um das weiter auszubreiten braucht man weitere Artikel zum Thema.
Die Rechtliche Seite des Bloggens
Natürlich gilt natürlich auch hier wieder, daß man das geltende Recht – Datenschutz und Urheberrecht – einhalten sollte. Manch einer würde einen Blog als private Seite sehen und beispielsweise ein Impressum wohl als überflüssig erachten. Aber Recht haben und Recht bekommen sind leider zweierlei Paar Schuhe. Es sollte doch nicht verkehrt sein, Anschrift und Telefonnummer im Impressum einzufügen. Nutzt man Youtube oder Facebooks Daumen-Hoch-Button, ist vielleicht eine Datenschutzerklärung notwendig. Es gibt Impressumgeneratoren im Internet zu Hauf. Das Verlinken von fremden Webseiten ist soweit auch erlaubt, sofern erkennbar ist, daß die fremde Webseite nicht gegen geltendes Recht verstößt und man sich den Inhalt nicht zu eigen macht.
Bilder, Bilder und nochmals Bilder. Fremdes Bildmaterial zu verwenden ist erst einmal rechtlich bedenklich. Lieber selbst ein Foto schießen oder einen Scrfeenshot selbst erstellen, dazu bietet Windows standardmäßig das Snipping-Tool an. Fällt es schwer an passendes Bildmaterial zu kommen, gibt es im Internet auch Sammlungen, aus denen man sich sogar kostenlos bedienen darf. Dazu gehört auch Wikipedia und Wikimedia Commons. Sofern man Bilder aus dieser Quelle dementsprechend kennzeichnet, braucht man keine rechtlichen Streitereien zu befürchten. Wie das schnell und einfach geht, habe ich in einem früheren Artikel schon beschrieben.
Fazit
Bloggen kann schon spaß machen, es macht auf alle Fälle auch einiges an Arbeit. WordPress ist ein weit verbreitetes Blogsystem und das nicht zu Unrecht. Es gibt massig an Zubehör, was man direkt in Form von Funktionen und Themes integrieren kann oder indirekt an das System anflanschen kann. Mit den richtigen Mitteln kann man sich die Arbeit erleichtern und Routineaufgaben ersparen. Durch die Vielfalt an Möglichkeiten geht aber auch viel Zeit für Tests drauf, um für sich den richtigen Weg zu finden.
Wieder einmal gibt es von der Medienspürnase einen TV Tip für das kommende Wochenende, den 24. März. Dieses mal sind es gleich zwei Dokumentarfilme zur besten Sendezeit (ab 20 Uhr 15) auf dem WDR. Und das in HD und ganz ohne Werbung.
Kassettenkinder – Unsere Kindheit in den 80ern
Verschiedene Prominente aus der Musikszene (Joey Kelly, Oli P., Tamina Kallert und andere) berichten ab 20 Uhr 15 über ihre Kindheit und Jugend in den 80er Jahren des vergangenen Jahrhundert. Dabei berichten sie, wie sie damals ihre ersten Songs aufgenommen haben, aber auch von Urlaubsreisen im Auto.
Die verrückten 80er…
… ist ein in 2016 entstandener Rückblick. Promis erinnern sich ab 21 Uhr 45 für ca 90 Minuten an seltsam gekleidete Leute, die an Würfeln drehten und an (heute) antike Computer. Für Nerds und alle anderen Deutschen, die diese Jahre erlebt haben, dürften die Achtziger das Lieblingsjahrzehnt gewesen sein.
Der WDR läßt die jung gebliebenen Alten über 3 Stunden in nostalgischen Erinnerungen schweben, ein muß für jeden Retro- und Dokumentarfan.
Schon mehrmals wurde ich gefragt, wie das mit dem Bloggen so ist. Ist das einfach? Was braucht man dazu? Kostet das Geld? Auf einige dieser Fragen möchte ich an dieser Stelle eine Antwort geben und mein Workflow vorstellen.
Im ersten Teil der Artikelserie geht es um WordPress an sich und die Frage ob man es selbst auf ein bisschen Webspace hosten möchte oder ob man bei WordPress.com sich seinen Blog fremdverwalten lassen möchte. Weiterhin gehe ich auf einige Programme ein, die ich auf diversen Geräten lokal bei mir installiert habe und durch diverse Schnittstellen an WordPress angeflanscht sind.
Die Zentrale
Alles dreht sich um die Freie Software WordPress, mit der ich meinen Blog betreibe. Themes und Plugins gibt es zu Hauf kostenfrei, aber auch zum Teil kostenpflichtig im Internet. Mit ein paar grundlegenden HTML/CSS, PHP und Javascriptkenntnissen kann man recht schnell seinen Blog um ansehnliche Designs und Plugins für neue Funktionen erweitern.
Wieso WordPress?
Es gibt genug Alternativen draußen in der freien Wildbahn, die sich für den eigenen Blog qualifizieren, dabei aber leichtgewichtiger sind, weniger verbreitet oder geradeso das Allernötigste an Funktionen mitbringen. Selbst etwas programmieren ist auch nicht zu schwer, sofern man die oben genannte Scriptsprachen beherrscht. Allerdings muss man sich hier immer wieder auf das Scripten konzentrieren, etwa um Fehler zu beheben oder eine neue Funktion zu integrieren. Bei einem vorgefertigtem CMS (kurz für Content Managementsystem) braucht man sich um beides nicht zu kümmern, Updates gibt es mehr oder weniger regelmäßig in verschieden großen Zeitabständen. So bleibt mehr Zeit, um sich auf’s Wesentliche zu konzentrieren.
WordPress bietet für den Einstieg alle relevanten Funktionen und hat eine aktive Community, die das System um viele brauchbare Funktionen erweitert. Themes gibt es jede Menge. In den letzten Jahren hat sich WordPress zu einem vollständigen Content Management System (neudeutsch für System zur Verwaltung von Inhalten) entwickelt, mit dem man auch ganz passable Webseiten und Portale zusammenschrauben kann. Multifunktional ist es auch. Vom Fotoblog (neudeutsch Phlog – von Photo und Blog) bis hin zum Videoblog kann WordPress ziemlich viel. Sogar Social Communities kann WordPress mit dem Plugin Buddypress. Damit kann man aus seinem Blog ein eigenes kleines Facebook machen. Auf Grund der ganzen Fülle an Funktionen, die zum Teil im Grundsystem integriert sind ist WordPress so verbreitet. Viel liegt auch an der Einsteigerfreundlichkeit und der relativ simplen Bedienung. Man braucht nur recht simple Kenntnisse, um einen Blog zu erstellen und zu betreiben.
Die große Verbreitung hat auch ihren Preis. Zahlreiche Gängster suchen nach Schwachstellen, um ganze Server der Webhoster für ihre kriminellen Machenschaften zu mißbrauchen. Bei vielen Installationen einer Software ist es statistisch gesehen eher wahrscheinlich, daß irgendjemad auf eine Schwachstelle stößt, die man aktiv ausnutzen kantan. WordPress sorgt da schon bei manch einem Serveradmin für Schweißausbrüche.
Hosten? Oder nicht Hosten?
Das ist hier die Frage. Da gehen die Meinungen auch ein bisschen auseinander. WordPress betreibt einige Server selbst und bietet geneigten Nutzern jedem eine Instanz von WordPress zu eröffnen. Hierbei übernimmt der Hoster alles selbst – von der Datenbank bis hin zum Backup. Aktualisierungen muß man nicht mehr selbständig durchführen. Man zieht quasi in ein vorgefertigtes Haus ein, was man sich mit Themes und Plugins selbst einrichten kann. An Backups, eventuell für einen Umzug, kommt man hier schwerer.
Für Lau gibt es schon an jeder Ecke ein bisschen Webspace mit einer (oder mehreren) MySQL Datenbanken. Hier muß man sich seinen Blog aber selbst einrichten – bei WordPress.org downloden, via FTP auf den eigenen Webspace hochladen und dann mit der Datenbank verbinden. Viele Webhoster haben aber auch einen automatisierten Installationsvorgang, bei dem man nur einige wichtige Dinge von Hand eintragen muss. Allerdings muß man sich bei einem selbst gehosteten Blog um Backups der Datenbank und des Contentordners kümmern, aber damit fällt auch ein Umzug zu einem anderen Hoster leichter.
Mein Blog liegt bei einem Hostingangebot aus Deutschland – Lima City. Dort habe ich ein bisschen Webspace, eine Domain und die benötigte Datenbank für WordPress. Mailpostfächer für die Domain gibt es auch, die verwalte ich via Thunderbird. Für 8 Euro im Jahr gibt’s auf Lima-City schon eine TLD (Top Level Domain) mit einer .de Endung, dazu kostenfreien Webspace und Datenbanken. Wer etwas schnelleren Webspace und garantiert eine bestimmte Menge Platz haben möchtet, investiert monatlich einige Eurotaler und bekommt ein bestimmtes Kontingent an Platz zugesichert.
Hilfsmittel beim Bloggen
WordPress ist eine reine Webanwendung, die auf einem Server gehostet wird. Deswegen ist ein Browser der Zentrale Bestandteil fürs Bloggen. Ich nutze seit jeher Firefox als meinen Hauptbrowser. Jeder, der irgendwie ein bisschen im Internet kreativ ist, kennt das Dilemma, daß jeder Browser die Internetseiten ein bisschen anders darstellt. Deswegen kommt man um den einen oder anderen Browser für Testzwecke nicht herum. Edge und Internet Explorer sind bei Windows 10 schon dabei, bei älteren Windowsversionen muß man auf Edge wohlweislich verzichten. Chrome benutze ich als Portable Version vom USB Stick aus und in einer virtuellen Maschine läuft ein Linux Mint mit Chromium.
Weitere Hilfsmittel für mich sind mein Tablet, ein Samsung Galaxy S3 samt kleiner Tastatur, die ich dort andocken kann und zwei Apps. Die WordPress-App für Android läßt mich Artikel verfassen und editieren, Samsung SMART CAMERA überträgt via AdHoc WLAN Netz Bilder von meiner Samsung NX3000 Kamera auf das Tablet. Somit wird mein Blog auch soweit mobil, daß ich von unterwegs aus schreiben kann.
Am PC nutze ich verschiedene Programme, um mir den Arbeitsalltag beim Bloggen zu erleichtern. Zum einen ist das MS Office 2016 Professional. Zum anderen Gimp und DigiFoto von Klaus Doege. Wer jetzt nach Libre Office oder andren kostenlosen Bürosuiten aus der OpenSource-Welt fragt, dem sei gesagt, daß ein Lizenzkey für MS Office auf Ebay schon für unter 10 Euronen erhältlich ist. Mit einer passenden Internetverbindung lässt sich MS Office legal von Microsoft laden und auf dem heimischen PC installieren. LibreOffice gibt es ganz kostenlos, zerrupft mir aber öfter das Layout von Dateien im .docx-Format. Zudem hat das OpenSource Büroprogramm die schlechtere Fehlerkorrektur.
MS Word ist ein ansehnlicher Texteditor für WordPress mit einer starken Rechtschreibeprüfung an Bord. Mit ein paar Handgriffen ist Word für den eigenen Blog fit gemacht. In der Suche für Dokumentvorlagen schaut man nach einer mit dem Namen „Blogbeitrag“. Jetzt braucht man nur noch die Domain und seinen Account aus Nutzername und Passwort von seinem Blog, schon baut Word eine Verbindung dorthin auf.
Beide Sachen – das Tablet mit den vorgestellten Apps und ein PC nur mit Word – ersetzen aber nicht die Arbeit via Browser im Blog. Beide Programme erlauben nur das Erstellen und Editieren von Beiträgen. Darüber hinaus kann man nur wenige Einstellungen am Blog vornehmen. Die Endbearbeitung von Beiträgen sollte man doch immer im Backend vornehmen.
Mit Gimp und Digifoto habe ich zwei portable Programme (ähnlich wie Chrome) auf einem USB-Stick gezogen, um Bilder für den Blog in Form zu bringen. Für Android habe ich noch keine passende Bildbearbeitung gefunden. Vorschläge dazu können aber gern in der Kommentarfunktion abgegeben werden.
Fazit
Es gibt etliche Tools, mit denen man sich das Bloggerleben erleichtern kann, die zudem recht mobil sind. Ob man nun selbst seinen Blog irgendwo hostet oder bei WordPress.com mag Geschmackssache sein. Beides bringt seine Vor- und Nachteile mit sich.
Rund 40 Jahre nach der Veröffentlichung des Klassikers Space Invaders gibt es nun die – auch schon wieder zehn Jahre alte – Spezialausgabe Extreme auf Steam für Windows-PC.
Es dürfte kaum jemanden geben, der von Space Invaders nicht wenigstens schon gehört hat. Nun steht der Klassiker rund 40 Jahre nach der Erstveröffentlichung im Jahr 1978 auch als Download auf Steam bereit. Konkret handelt es sich um eine etwas aufgehübschte, technisch an moderne Windows-PCs angepasste Version von Space Invaders Extreme. Das Programm kam ursprünglich 2008 für Nintendo DS und Playstation Portable auf den Markt und verbindet das bekannte Spielprinzip der Planetenverteidigung mit neuen Effekten, schneller Musik und etwas mehr inhaltlicher Abwechslung.
Die nun auf Steam verfügbare Fassung von Space Invaders Extreme ist das einzige dort aufgeführte Programm vom legendären japanischen Entwicklerstudio Taito, das 2005 von Square Enix aufgekauft wurde. Seitdem ist von dem Unternehmen nur noch sporadisch zu hören, etwa bei Jubiläen von Klassikern wie jetzt bei Space Invaders.
Das seit dem 13. Januar 2018 erhältliche Extreme bietet 16 Stages. Im Arcademodus gibt es eine weltweit geführte Rangliste, 4K-Auflösungen werden unterstützt. Die ersten paar Bewertungen durch Nutzer sind positiv, der Preis liegt bei rund 18 Euro