Zukunft des Spiels

In der aktuellen Making Games, eine Zeitschrift für Spielemacher, geht es um die Zukunft des Spiels, es werden Fachkundige wie einer der drei Crytek (Far Cry, Crysis) Gründer Cevat Yerli oder der Ubisoft Deutschland (ANNO, Siedler) Geschäftsführer Ralf Wirsing interviewt. Bei den Interviews stellen die Hohen der deutschen Spieleindustrie mehr oder weniger Prognosen für das Jahr 2015. Cevat Yerli ist zum Beispiel die Meinung, dass Spiele zwar technisch gesehen einen enormen Wachstum hinlegen und Filme wie Avatar und Spiele nicht mehr zu unterscheiden sind, dafür aber auch die Spielzeit drastisch sinken werden. Statt sechs Stunden sollen es nur noch zwei sein. Der Grund dafür ist einfach: Ein Spiel, das zwei Stunden braucht statt sechs, benötigt auch viel weniger Entwicklungszeit und viel weniger Budget. Somit kommen Fortsetzungen viel schneller, das erreicht mehr Kunden. Das Spiel kann für 20 € verkauft werden und mehr Leute können es sich leisten. Außerdem sieht Cevat die Zukunft eher in Onlineverkäufen als im Spieleregal. Spieler wollen keine Disks mehr in den Händen halten, ihnen reicht es ein Spiel auf Steam zu kaufen und es herunterzuladen. Cevat muss es wissen, seine Spiele sind seit Gründung im Jahr 1999 immer erfolgreich gesehen, Crysis gilt noch heute als eines der technisch besten Spiele und Crysis 2 wird das erste Spiel mit 3D Effekten sein, vorausgesetzt man hat den richtigen Fernseher. Auch sieht er das iPad als sehr interessant und könnte sich Strategiespiele gut darauf vorstellen. Ein sehr interessanter Gedanke, den ich befürworte. Cevat hält es außerdem für wahrscheinlich, dass 2012 bzw 2013 die neue Konsolengeneration auf den Markt treten wird.

Es wurde in einem anderen Interview auch über Spielestreaming geredet. Bei dem Spielestreaming besitzt der Spieler das Spiel nicht, er bezahlt für die Spielzeit. Er muss das Spiel nicht zuhause installieren, sondern es läuft auf speziellen Servern und wird über das Internet zum Spieler gebracht. Es ist also mit Spielestreaming möglich, Crysis 2 auf einem kleinen Netbook in hochauflösender Grafik zu spielen – ein sehr interessanter Gedanke. Allerdings nichts für mich. Ich halte mein Spiel gerne in den Händen. Ich kaufe mir das Spiel generell nicht online über Steam oder sonstwas, sondern ich besorge mir sie immer noch klassisch aus dem Laderegal oder einem Shop. Da ich gerne eine Disk habe, die mir das Gefühl gibt, wirklich etwas gekauft zu haben. Und wahrscheinlich sehen das viele andere auch so. Außerdem muss ich dafür ständig mit dem Netz verbunden sein, so wie bei Ubisofts „tollem“ Kopierschutz.

Was erhofft ihr euch für das Jahr 2015 in Sachen Gaming?

Ich wünsche allen viel Spaß auf der Gamecom 😉

 

How-To: Automatisches MySQL Dump FTP-Backup

Hallo,
da bei vielen Anwendungen nicht nur Dateien sondern auch Datenbanken wichtig sind, ist es auch enorm wichtig diese mitzusichern. Eine einfache Möglichkeit um MySQL Datenbanken in der Shell zu sichern ist es, einen MySQL Dump anzulegen. Das geht schnell und einfach – mit diesem Tool kann man einzelne Datenbanken und ganze Server sichern und wiederherstellen.
Das per Hand zu machen wäre eine Heidenarbeit, ein Cronjob ist deshalb eine enorme Entlastung.
Gerne hat man aber mehrere Datenbanksicherungen zur Verfügung, falls ein Fehler in dem Dump vorliegt und dieser irreperabel ist. Es ist also intelligent mehrere Dumps hochzuladen und sie nach dem aktuellen Datum + evtl. dem DB-Namen. Für das Datum gibt es in der Shell ‚date‘. Mit date kann das Datum in verschiedenen Formaten ausgegeben und bspw. in einer Variable abgespeichert werden. Um das dann schließlich auf einen FTP-Server hochzuladen, benötigen wir zum Autoeinloggen einen Eintrag in der ~/.netrc. Dann können wir einfach mit wput den Dump hochladen. Auf meinem Ubuntu System ist wput standardmäßig nicht installiert, wir können es aber ganz einfach mit ’sudo apt-get install wput‘ nachinstallieren.

Um uns das ganze zu vereinfachen und nicht jedes Mal die ganzen Befehle einzugeben, erstellen wir ein einfaches Shell-Script.
Da wir per wput im Script hochladen und während des Vorgangs nichts eingeben können, immerhin ist es automatisiert, benötigen wir die erwähnte ~/.netrc. In ihre konfigurieren wir die Login Dateien.
~ steht immer für das Homeverzeichnis des angemeldeten Users. In meinem Fall ist das /home/dominic/. Heißt also die File ist in Wirklichkeit /home/dominic/.netrc
Im Normalfall ist diese leer. Hier schreiben wir den Host-, Loginnamen und das Passwort rein:

machine: ftp.domain.com
login: LOGIN
password: PASSWORD

Die richtigen Rechte sind 600. Die setzen wir mit “ chmod 600 ~/.netrc“.
Danach ist es uns möglich, ohne Password oder Login auf dem FTP Server, hier ftp.domain.com, einzuloggen.

Da wäre nur noch das eigentliche Script. Hier ist es einfach mal schnell runtergeschrieben, die Erklärung erübrigt sich dank der Kommentare.
Vorweg: Bei mysqldump ist es enorm wichtig, dass Passwort direkt und ohne Leerzeichen hinter -p zu schreiben, sonst kommt ein Syntax Error.

#!/bin/sh
#MySQL-Dump Backupscript

#Schreiben des aktuellen Datums im Format DD.MM.YYYY in eine Variable
today=$(date +%d.%m.%Y)

#Erstellen eines MySQL Dump einer einzelnen Datenbank
mysqldump –database DBNAME -u USER -pPASSWORD

#Falls nicht vorhanden wird wput installiert
apt-get install wput

#Hochladen des Dumps
wput $today ftp://ftp.domain.com

Zum Schluß kommt noch der Cronjob.
Dazu editieren wir die Crontabelle mit „crontab -e“

55 23 * * * sh /PFAD/ZUM/SCRIPT.sh

Wenn ihr alles richtig gemacht habt, dann startet jeden Tag um 23:55 Uhr ein Cronjob, der einen MySQL-Dump der von euch ausgewählten Datenbank macht.

Fehler oder Anmerkungen bitte in die Kommentare schreiben!

Nachtrag:

Wenn ihr euren Dump nicht nur nach dem aktuellen Datum benennen wollt, sondern z.B. auch nach der Datenbank, so könnt ihr den Namen einfach an „date +%d.%m.%Y“ hängen. Beispiel: „date +%d.%m.%Y-bthost.sql“ gibt 12.08.2010-bthost.sql aus. Außerdem könnt ihr die Darstellung des Datums auch variieren, schaut dazu am besten in die Man-Page von date.

 

Was ist Virtualisierung

Seit Mitte letzten Jahres beschäftige ich mich intensiv mit Virtualisierung. Es fing mit der Virtualbox an und ist derzeit bei zwei Xen Servern auf denen verschiedene Windows Server Versionen laufen. Damit teste ich Desktop Virtualisierung. Als IT-Schüler bekomme ich kostenlosen Zugriff auf die meisten MS Systeme.
In der Zeit haben mich viele Freunde gefragt, was eigentlich Virtualisierung ist und wer so einen Mist braucht.

Es gibt noch heute in der IT-Welt ein großes Problem: Viele Applikationen wollen unterschiedliche Systeme: Warenwirtschaftssysteme erwarten irgendein Windows, Webserver sind aber gerne auf einem Linuxkernel. Da ist immer das Problem, dass man zwei Server braucht, Hard- und Softwareseitig. Das ist teuer und uneffizient. Zwei Server fressen den doppelten Strom, benötigen doppelte Kühlung, haben die doppelten Anschaffungskosten und langweilen sich.
Dagegen hilft Virtualisierung.
Der sogenannte Hypervisor, das ist die Virtualisierungssoftware, setzt entweder direkt auf der Hardware auf (z.B VMware ESXi) oder ist ein normales Program in einem bereits installierten Betriebssystem (z.B. VMware Server, Virtualbox). Dieser Hypervisor teilt die Hardware auf. Mit ihm ist es möglich, aus einem Hostsystem mit beispielsweise einem vier Kern Prozessor, 16GB RAM und einer Terrabyte Festplatte zwei Server mit je zwei Kernen, 8GB RAM und 500GB Festplatten Speicher. Jede Kombination ist möglich. Wieviele verschiedene virtuelle Maschinen möglich sind, hängt vom Hypervisor und der, falls vorhanden, Lizenz ab.

Der Hypervisor teilt einen realen Host also in mehrere virtuelle Guests auf. Es ist also möglich, mehrere Betriebssysteme auf ein und der selben Hardware zu installieren. Jeder Guest kann ein eigenes Betriebssystem bekommen. So können zum Beispiel das genannte Warenwirtschaftssystem und der Webserver friedlich nebenher laufen.
Ein weiterer Vorteil ist auch, dass die Server ganz einfach auf einen neuen Host umziehen können. Dazu müssen, wenn überhaupt, die Guests nur exportiert werden und auf dem neuen Host wieder importiert werden. Voraussetzung dafür ist nur, dass der Hypervisor entweder der gleiche ist, oder ein Konverter verfügbar ist.
Es gibt neben der herkömmlichen Server Virtualisierung mittlerweile auch Applikationen- oder Desktopvirtualisierung.
Bei der Applikationenvirtualisierung wird für den Benutzer kein ganzer Server virtualisiert, sondern nur eine einzelne Applikation wie z.B. Word. XenApp von Citrix ermöglicht das.
Die Desktopvirtualisierung stellt dem Benutzer einen eigenen Desktop zur Verfügung. Der Benutzer kann sich über einen Miniclienten auf seinen eigenen Desktop verbinden. Das ist mit einem Terminalserver vergleichbar, allerdings hat der Benutzer hier einen komplett eigenen Desktop und nicht nur eine Sitzung. Das ermöglicht XenDesktop ebenfalls von Citrix. Hierzu werdet ihr bald aber mehr erfahren.
Das neumodische Cloudcomputing basiert ebenfalls auf Virtualisierung. Hier ist es wichtig Hardware immer an den derzeitigen Bedarf angepasst zur Verfügung zu stellen. Virtualisierung eignet sich dafür natürlich hervorragend. Voraussetzung dafür ist ein Hardwarepool.

 

Viele Fehler, aber schnell

Intel hat verlauten lassen, dass sie an einem System arbeiten, durch welches Rechenfehler korrigiert werden.
Das hat folgenden Nutzen: Dreht man die Spannungszahl und somit auch den Takt eines Prozessors hoch, so entstehen Fehler. Halbleiter, aus welchen Chips, also auch Prozessoren, bestehen neigen bei hoher Spannung nämlich zu starken Normabweichungen, bedeutet Fehlern.
Ähnliches passiert bei zu niedriger Spannung: Vieles kommt einfach nicht da an, wo es soll.
Die Intel-Forscher rund um Jim Tschanz haben eine Möglichkeit entdeckt, die Fehler vorher abzufangen. Resilient Computing nennen sie das.
Dafür wurde ein Chip gebaut, welcher auf einem offenen RISC Design basiert. Er wurde allerdings um einige Schaltungen erweitert, so gehören auch Timer dazu, die die Signallaufzeiten messen. So kann man ziemlich einfach messen, ob ein Fehler aufgetreten ist oder nicht, denn: Ist es außerhalb des normalen Bereichs, muss es sich um einen Fehler handeln.
Der Prozessor ist dann auch in der Lage, diese Fehler zu korrigieren, er passt sich an seine Rechnungen an. Daher nennt Intel das Konzept treffend auch „self-tuning processor“.
Wenn also ein Fehler entdeckt wird, wird die Pipeline geleert, der Takt gesenkt und der Befehl neu angestoßen.
Es soll schon jetzt möglich sein, den Takt um satte 666 MHz zu steigern. Und das ist nicht wenig!

 

VMware ESXi 4

Hallo,
grade hab ich für BTHost auf unserem Hetzner Server ESXi installiert, nachdem ich es ja schon gestern für BattleFright gemacht habe.
Hat super geklappt, ein schönes System, sogar die Netzwerkconfigs waren spielend einfach gemacht. Endlich kein Rumgebastle mehr mit VMware Server 2. Gut, das ist dann jetzt auch 15 € im Monat teurer (Flexi-Pack), dafür klappt das gut, das Flexi-Pack hätte ich sowieso bald gebraucht.
Connecten kann man leider nur unter Windows, dafür braucht man den „VMware vSphere Client 4.0“, der auch schön einfach zu bedienen ist.
Sonntag zieht BTHost dann endlich wieder auf den Server, dann sollten alle Probleme gelöst sein.
Dann setz‘ ich auch mal, wenn ich denn dann noch Zeit habe, einen ESXi in einer VM auf, damit ihr euch das mal ansehen könnt. Ist quasi ein Betriebssystem nur auf virtualisierung ausgelegt, ähnlich wie Xen.
Xen wollte ich nicht benutzen, ich bin VMware gewohnt und wechsle nur ungerne etwas, das schon funktioniert.

Wünsche allen einen guten Rutsch ins neue Jahr!
Fragen könnt ihr ruhig stellen.

 

Linux Teil 1

Hallo,
ab heute veröffentlichen wir nach und nach unsere Tutorial Reihe zu Linux, die euch in die Welt der kostenlosen Unix-Kopie einführen soll. In dem ersten Teil erkläre ich euch die Unterschiede der verschiedenen Distributionen und welche für euch die richtige ist. Fangen wir direkt an:

OpenSUSE
OpenSUSE ist eine von Novell gegründete Distribution, die bekannt dafür ist, sehr Anfänger freundlich zu sein.
Die Installation ist sehr einfach gehalten, die automatische Partitionierung der Festplatte klappt gut, auch das Installieren neben Windows ist gut. Als Standarddesktop ist KDE ausgewählt, aber Gnome oder XFCE sind auch auswählbar. Ein großer Punkt, warum gerade Anfänger zu OpenSUSE greifen sollten, ist das Programm Yast. Mit ihm ist es gerade zu spielend einfach, alles zu konfigurieren.

Ubuntu
Ubuntu wird von Canonical entwickelt und auch veröffentlicht. Es ist mittlerweile die beliebteste Distribution.
Aufgebaut auf Debian, enthält sie das nützliche Paketverwaltungs-Programm apt-get. Es lässt sich einfach installieren, sogar schneller als OpenSUSE, benutzt als Desktop Gnome (Kubuntu hat standardmäßig KDE, muss allerdings separat geladen werden) und hat, genau wie OpenSUSE, eine große Auswahl an Software.

Debian
Es gibt kaum Unterschiede zwischen den verschiedenen Distributionen. Debian ist da anders. Debian ist die letzte verbliebene „Instanz“ der freien Software. Als einzige wirklich komplett von der Community geleiteten Distribution, herrscht kein Gedanke nach Umsatzsteigerung oder ähnlichem in der Entwicklung. Anders als bei Ubuntu oder OpenSUSE erscheinen die Versionen sehr unregelmäßig. Der Spruch „It’s done when it’s done“ (dt.: „Es ist fertig, wenn es fertig ist.“) wurde von den Debianentwicklern geprägt und tatsächlich war es auch so: Debian veröffentlichte Versionen erst, wenn alles auf der ToDo List fertig war, das Release-Datum konnte also nie genau bestimmt werden. Damit ist jetzt aber Schluss. Zumindest einen ungefähren Release Datum wollen die Entwickler in Zukunft angeben. Aber zurück zum Thema. Debian halte ich am wenigsten für Einsteigertauglich. Die große Anpassbarkeit ist zwar schön und gut, aber für Umsteiger fehlen dann eben doch vorinstallierte Programme oder ähnliches.

Das war es dann auch schon mit dem ersten Teil.
Live CDs zu den Distributionen sind hier erhältlich, das ist die beste Methode um das richtige für sich zu finden:
http://software.opensuse.org/112/de“>http://software.opensuse.org/112/de
http://www.ubuntu.com/
http://www.debian.org/CD/http-ftp/

 

Assassins Creed 2

Vor einer Woche kam es raus. Das Spiel, auf das ich schon so lange wartete. Viel versprach ich mir vom neuen Ubisoft Hit. Und ich wurde nicht enttäuscht.

Die Trailer ließen mich ja schon einiges erraten, Leonardo da Vincis Flugmaschine, eine kleine Pistole, zwei Klingen. Schon nach den ersten Minuten trifft man den großen Erfinder. Eine ganz unscheinbare Person.

Aber es gibt noch andere interessante Leute und auch Dinge.

Da wäre einmal die Villa Auditore, zum anderen natürlich die Städte Florenz und Venedig, in denen der Großteil des Spiels stattfindet. Übrigens besucht man auch mal kurz den Vatikan.

Aber nicht nur die Welt als Ezio Auditore wird weiterhin beschrieben. Auch Desmond Miles Leben geht weiter. Zusammen mit Lucy fliehen sie aus Abstergo, vorbei an jede Menge von diesen Animus Geräten (Gibt es dafür eine Plural-Form?!), um dann schließlich im Kofferraum eines Autos zu entkommen.

Auf die Reise in die Renaissance begebt ihr euch mit dem Animus 2.0, eine verbesserte Version des ersten Modells.

Anders als beim ersten Teil findet das Spiel nicht in wenigen Tagen, sondern in 23 Jahren statt. In diesen Jahren wird aus dem Bankier Kind Ezio Auditore der beste Assassine nach Altair, dessen Rüstung und Schwert auch nach einer Weile benutzt werden kann.

Ich möchte nicht zu viel verraten, deshalb kommt jetzt auch schon mein bescheidenes Urteil:

Die Grafik ist unschlagbar, auf PS3 und Xbox 360 gleichermaßen (Habe beide Versionen gespielt).

Die Atmospähre mit den Herolden, Barden und den normalen Bürgern, die jetzt einen geregelten Tagesablauf haben, ist unglaublich wirksam.

Die neuen Fertigkeiten und die damit verbundenen neuen Animationen sind erstklassig. Das Entwaffnen ist echt nützlich und, wie ich finde, gut umgesetzt.

Die Städte sind realistisch und wichtige Gebäude haben einen Eintrag in der Datenbank, der den historischen Hintergrund beschreibt.

Das Menü ist umfangreich und doch einfach gehalten. Man findet sich schnell zu recht.

Die Story ist mitreißend und spannend. Bis zur letzten Sekunde hat das Spiel echt Spaß gemacht.

Müsste ich Punkte vergeben, würde ich wahrscheinlich 9,5/10 Punkten vergeben.

Für mich definitiv das Game of the Year.

Aber genug davon, wie ich es finde. Mich interessiert eure Meinung, wie findet ihr es, was hättet ihr besser gefunden?

http://assassinscreed.de.ubi.com/assassins-creed-2/