Agrafix.net in neuem Design

Lange hat sich www.agrafix.net in gleichem Design präsentiert, deshalb war jetzt Zeit für etwas neues. Im Grunde habe ich ein neues Design für die Seite erstellt, die Referenz-Icons vereinheitlicht und auf der Startseite werden nun die letzten 3 Blogbeiträge angezeigt. Wie gefällt euch das neue Design?

Besuche www.agrafix.net

Wärend der „Umstellung“ bin ich natürlich auf ein paar interessante Dinge gestroßen:

1) Die SQL, die es ermöglicht die letzten Blogbeiträge aus einem WordPress auszulesen:

SELECT post_title, post_content, guid, post_author FROM [PREFIX]_posts WHERE post_status = 'publish' AND post_type = 'post' ORDER BY post_date DESC LIMIT 3

2) Außerdem noch ein Tipp für alle xHTML+CSS-Designer: Um ein komplettes DIV zu verlinken habe ich folgenden Code genutzt:

CSS:

div.nelement {
	float:left;
	margin-left:10px;
}

div.nelement a {
	display:block;
	width:100%;
	height:100%;
}

div.nelement a:hover {
	text-decoration:none;	
}

xHTML:

Das war’s auch schon 😉

 

Viele Fehler, aber schnell

Intel hat verlauten lassen, dass sie an einem System arbeiten, durch welches Rechenfehler korrigiert werden.
Das hat folgenden Nutzen: Dreht man die Spannungszahl und somit auch den Takt eines Prozessors hoch, so entstehen Fehler. Halbleiter, aus welchen Chips, also auch Prozessoren, bestehen neigen bei hoher Spannung nämlich zu starken Normabweichungen, bedeutet Fehlern.
Ähnliches passiert bei zu niedriger Spannung: Vieles kommt einfach nicht da an, wo es soll.
Die Intel-Forscher rund um Jim Tschanz haben eine Möglichkeit entdeckt, die Fehler vorher abzufangen. Resilient Computing nennen sie das.
Dafür wurde ein Chip gebaut, welcher auf einem offenen RISC Design basiert. Er wurde allerdings um einige Schaltungen erweitert, so gehören auch Timer dazu, die die Signallaufzeiten messen. So kann man ziemlich einfach messen, ob ein Fehler aufgetreten ist oder nicht, denn: Ist es außerhalb des normalen Bereichs, muss es sich um einen Fehler handeln.
Der Prozessor ist dann auch in der Lage, diese Fehler zu korrigieren, er passt sich an seine Rechnungen an. Daher nennt Intel das Konzept treffend auch „self-tuning processor“.
Wenn also ein Fehler entdeckt wird, wird die Pipeline geleert, der Takt gesenkt und der Befehl neu angestoßen.
Es soll schon jetzt möglich sein, den Takt um satte 666 MHz zu steigern. Und das ist nicht wenig!

 

Facebook: Like

Seit kurzem ist es dank neuen Facebook-Schnittstellen möglich auch Webseiten, Beiträge und Ähnliches zu „Liken“ („Gefällt mir“). Auch als Blogger sollte man von diesem profitieren, da man dadurch anderen die Möglichkeit gibt für eure Beiträge Werbung zumachen, denn wenn ein Leser bei eurem Beitrag auf „gefällt mir“/“like“ klickt, wird auf seinem Profil angezeigt „Mister XYZ gefällt ‚Facebook: Like'“.

Für die „faule“ WordPress Gemeinde gibt’s da ein wunderbares Plugin, welches sich Facebook Like nennt. Dieses muss man sich einfach Installieren und dann konfigurieren. Viel Spaß damit!

 

Crawler – eine „Gefahr“?

Letztes Jahr im Herbst ging „SchülerVZ“ durch die Presse – persönliche private (?) Daten wurden von Crawlern „geklaut“. Und jetzt ist es wieder passiert (siehe hier), wieder sind Millionen von Daten geklaut worden. Das ganze ging eigentlich relativ problemlos – ein Crawler bewappnet mit der entsprechenden RegEx krabbelte durch die Seiten von 1,6 Millionen Nutzern. Gehindert werden sollte der Crawler von einer „Klicksperre“, die ein maximum von Klicks pro Zeiteinheit erlaubt. Doch dies umging der Crawler ganz ohne Probleme – der Programmierer legte einfach 800 SchülerVZ-Accounts an, die parallel benutzt werden konnten. SchülerVZ hatte zuvor die Captchas wieder ausgebaut und hatte somit mehr oder weniger alle Tore zu ihren Daten offen – abgesehen von den Daten jener, die sie nur für den Freundeskreis einsehbar gemacht hatten.

Nun kann man sich Fragen ob Crawler eine Gefahr für die eigene Privatsphäre sind oder einfach nur harmlos Daten sammeln. Denn Crawler durchforsten nicht nur „normale“ Seiten, sondern das ganze Internet und dessen Soziale Netzwerke. Die Daten werden dann abgespeichert und auf irgendwelchen Archiv-Servern gespeichert. Google zum Beispiel nimmt riesige Mengen an Daten in seinen Cache auf – das heißt selbst wenn diese vom ursprünglichen Server gelöscht wurden kann man sie noch einsehen. Andere Crawler erstellen jeden Monat einen „Schnappschuss“ von einer Webseite und archivieren ihn dann. Daten die einmal im Internet sind, bleiben dort wohl for eine (wenn auch) begrenzte „Ewigkeit“.

Es gibt dank verschiedensten Crawlern schon Suchmaschienen, die nach Informationen über Personen suchen. Und wenn in dessen Datenbanken jetzt noch Daten aus Sozialen Netzwerken wie etwa Bilder, Vorlieben oder Lebensweise kommen, dann kann jeder (!) im Internet alles über eine wildfremde Person erfahren. Bei einem Bewerbungsgespräch würde es dann nicht mehr „Hallo Herr Crawlerman, erzählen Sie von sich“ sondern „Hallo Herr Crawlerman, ich habe gehört sie trinken viel Alkohol, sind sehr freizügig und ihre Freundin hat sie wohl grade verlassen?“ heißen. Ist das wirklich wünschenswert?

In dieser Hinsicht denke ich sind Crawler eine Gefahr für die Privatsphäre des Einzelnden, allerdings sehr nützlich um andere Daten zu erfassen und zu durchsuchen. Man müsste eine Lösung finden, Crawler effektiv aus der „Cyber-Privatsphäre“ herauszuhalten, und man muss die Betreiber von sozialen Netzwerken dazu zwingen schärfere Maßnahmen in Hinsicht auf Privatsphäre zu ergreifen.