Donnerstag, 31. März 2011

Online statt Buch: Links für digitale Wörterbücher

Ob Wörterbuch, Diktionär oder Dictionnaire: Wann haben Sie zum letzten Mal ein richtiges Buch aus dem Gestell genommen, um ein Wort nachzuschlagen? Wenn es Ihnen so geht, wie uns, ist es wohl schon eine ganze Weile her. Am PC geht’s ganz einfach viel einfacher und schneller.

Linguee.de: Das Wörterbuch ist eine Suchmaschine.
Es gibt zahlreiche Wörterbücher, die im Web in digitaler Form gratis angeboten werden. Die meisten funktionieren und wachsen im Umfang mit der Beteiligung der Benutzer: Es können Wörter beigesteuert werden, die dann von anderen Usern auf ihre Richtigkeit überprüft werden.
Da wir uns schon mehrmals darüber ausgelassen haben, wie wichtig die Englische Sprache für die Nutzung des Internets ist, möchten wir hier einmal jene Englisch-Deutsch Online-Wörterbücher auflisten, die wir am häufigsten benutzen. Für User, die relativ häufig auf diese Nachschlagewerke zurückgreifen, lohnt es sich, die Links zu den Sites im Taskbar am unteren Rand des PC abzulegen, damit bei Bedarf mit einem einzigen Klick darauf zugegriffen werden kann.
  • Das Onlinewörterbuch dict.cc erlaubt es allen Nutzern, nach dem Wikipedia-Prinzip eigene Übersetzungen hinzuzufügen. Die Qualität wird durch ein Peer-Review-Verfahren geprüft, an dem sich wiederum alle Nutzer beteiligen können. Außerdem können auch Beugungen, Sprachaufnahmen (für die richtige Aussprache) und Antworten im Forum beigesteuert werden.
  • Dict.Leo.org ist ein weiterer Service dieser Kategorie, den wir oft nutzen und dessen Forum wir speziell zu schätzen wissen. In diesem Forum diskutieren die Benutzer des Wörterbuchs über schwierige Wörter, Zweifelsfälle und die richtige Anwendung von Begriffen in fremdsprachigen Texten. Leo bietet ausserdem den mobilen Zugriff mit Apps für das iPhone, Android-Smartphones und die Blackberrys von RIM.
  • Auch Linguee.de ist ein Online-Wörterbuch, allerdings nicht im traditionellen Sinn. Die Site ist nämlich eine Suchmaschine für Übersetzungen. Ein Computerprogramm durchforstet das Internet, erkennt übersetzte Webseiten und bewertet deren Qualität. Nach Angaben der Betreiber stehen in Linguee dadurch 100 Millionen hochwertige Übersetzungen zur Verfügung. Ausserdem können hier auch Satzteile nachgeschlagen werden – falls sie schon mal übersetzt worden sind. Allerdings ist Vorsicht geboten, da es im Web natürlich auch viele schlechte Übersetzungen gibt. Wer nicht sicher ist, sollte sich also nie auf eine einzige Quelle verlassen – aber das war ja auch im vordigitalen Zeitalter schon so. 

Samstag, 26. März 2011

Entertainment aus der Amazon-Wolke?

Wenn man amerikanischen Fachmedien glauben darf, plant Amazon in Kürze, den totalen Entertainment-Service aus der Wolke anzubieten. Inhalte, beim grössten Online-Händler gekauft, müssten dann gar nicht mehr persönlich gespeichert werden. Stattdessen wäre der ständige Zugriff auf ein persönliches Schliessfach in der Amazon-Cloud gewährleistet.

Einmal kaufen, im digitalen Schliessfach ablegen, immer und
überall Zugang haben: Musik im digitalen Zeitalter.
Als der Microsoft-Gründer und Merheitsaktionär Bill Gates vor etwas mehr als zehn Jahren einmal voraussagte, dass wir unsere Musik schon bald nicht mehr als “Sache“, zum Beispiel als CD besitzen würden, konnten sich das viele User nicht so ganz vorstellen. Wer mit Vinyl-Schallplatten aufgewachsen war und dann später sogar eine umfangreiche CD-Sammlung angelegt hat, konnte sich diese körperlose Musik nicht so recht vorstellen. Das hat sich massiv geändert. Bill Gates hatte recht: Musik wird heute vorwiegend in elektronischer Form gekauft, heruntergeladen oder gar gratis gestreamt, wie auf YouTube.
Nun soll die Entwicklung noch einen logischen Schritt weitergehen. Der amerikanische Branchendienst Cnet berichtet, dass Amazon schon in Kürze persönliche Entertainment-Schliessfächer in der Cloud anbieten will. Mit anderen Worten: Inhalte, wie Videos, Musik oder Bücher, müssten dann nicht mehr heruntergeladen und gespeichert werden, sondern könnten bei Bedarf ganz einfach von einem persönlichen Schliessfach auf einem Amazon-Server abgerufen werden. Cnet geht sogar davon aus, dass auch Inhalte, die nicht bei Amazon gekauft werden, dort abgelegt werden können. Das hat natürlich auch den Vorteil, dass die geographische Situation des Users keine Rolle mehr spielt: ob im Ferienhaus oder in der Stadtwohnung, die neuste Black-Eyed-Peas oder Arcade-Fire CD kann nach Bedarf im digitalen Schliessfach abgeholt werden.
Die einzige Bedingung ist natürlich der Zugang zum Internet.
Amazon bietet übrigens in den USA schon ähnliche Dienste aus der Wolke an, für die Besitzer des Lesegerätes Kindle und auch für Miglieder eines Videoservices.
Google arbeitet übrigens an einem ähnlichen Konzept, vorerst beschränkt auf musikalische Angebote.  

Donnerstag, 24. März 2011

Die Halbwertszeit von IT-Applikationen

In vielen Unternehmen ist die IT-Infrastruktur nicht mehr up-to-date. Laut eigenen Aussagen von IT-Leitern in verschiedensten Branchen, müsste das Applikationsportfolio bei 85 Prozent aller Firmen rationalisiert werden. Bei 50 Prozent aller Unternehmen ist gar die Hälfte aller Anwendungen redundant.

Die Aktualität der IT-Applikationen wurde in einer Untersuchung von Capgemini und HP unter die Lupe genommen. Dafür wurden ausführliche Interviews mit IT-Leitern durchgeführt.  Beinahe 60 Prozent dieser Verantwortlichen erklärten, dass sie aktuell "mehr" oder "viel mehr" Applikationen unterstützen als sie für ihr Geschäft benötigen. Im Durchschnitt sei jede fünfte IT-Applikation redundant - die Hälfte der Befragten gibt sogar an, dass dies auf bis zu 50 Prozent ihrer Applikationen zutrifft. Nach Jahren des Sparens steigt damit also der Innovationsdruck bei den Unternehmen und deren IT-Abteilungen wieder an.
Über 55 Prozent der befragten grossen Unternehmen bestätigen, das mindestens die Hälfte ihrer Applikationen massgeschneidert sind und damit die technische Komplexität der benötigten Plattformen und Technologien erhöhen. Gleichzeitig geben nur 13 Prozent an, dass die unterschiedlichen Teams für Applikationsentwicklung und -pflege aufeinander abgestimmt sind.
Die enorme Anzahl an unterstützten Applikationen - bis zu 10.000 in grossen globalen Unternehmen - in Verbindung mit einem geschätzten Datenzuwachs von durchschnittlich fünf Prozent pro Monat bedeutet, dass das Applikationsmanagement zu einer ernsthaften Herausforderung wird. Getrieben durch die zunehmende Verlagerung von Applikationen in die Wolke (Cloud Computing), wird sich darüber hinaus der Bedarf nach einer systematischen Stilllegung von Applikationen beschleunigen. Folgende Hürden seien dabei zu überwinden:
  • Die Kosten von Abschaltprojekten,
  • kulturelle Widerstände gegen die Veränderung,
  • der Mangel an qualifizierten Entwicklern für die Migration der Daten von den Alt-Applikationen,
  • das mangelnde Bewusstsein für die hohe Bedeutung der Applikationen.
Der vollständige Application Landscape Report 2011 mit den Untersuchungsergebnissen steht hier als PDF zum Download bereit: http://www.presseportal.de/go2/application-landscape-report

Samstag, 19. März 2011

Was kostet ein PC?

Die Frage im Titel mutet fast rhetorisch an – ein PC kostet wohl, je nach Leistungsfähigkeit, zwischen ein paar Hundert und einigen Tausend Franken. Doch damit ist es, vor allem für PC-Arbeitsplätze in Unternehmen, nicht getan.

Der PC im Unternehmen: Er ist um einiges teurer, als der Anschaffungspreis.
Der private PC-Nutzer kann relativ leicht herausfinden, was ihn sein PC kostet. Der Betrag, den er im Laden auf den Tisch legen muss, um Hard- und Software zu erwerben, macht dabei den grössten Teil aus. Damit das Gerät dann aber auch genutzt werden kann, kommen noch andere Ausgaben dazu: Internet- und Virenschutzabo wollen eben auch bezahlt sein.
Unternehmen, die zahlreiche PC-Arbeitsplätze für ihre Angestellten betreiben, sind im eigenen Interesse daran interessiert, was so ein PC bis zum Feierabend kostet – doch das ist gar nicht so einfach herauszufinden. Deshalb sind sich viele Firmen nicht darüber im Klaren, wie viel ihre Computer kosten.
Die Computerwoche hat in einem Fachartikel die entsprechenden Positionen auf der PC-Rechnung zusammengezählt. Die Autoren vergleichen zunächst den Heimarbeitsplatz mit dem Firmen-PC. Zitat:
Auf der einen Seite steht der Preis für seinen Heim-PC vom Discounter um die Ecke, für den er inklusive Monitor, ein wenig Software und zwei Jahre Vor-Ort-Service 600 Euro bezahlt hat. Auf der anderen Seite sieht er möglicherweise eine Belastung seiner Kostenstelle für seinen Arbeitsplatz-PC von 100 Euro pro Monat. Kauft sich der Mitarbeiter alle vier Jahre einen neuen PC, dann müsste sein laienhaftes Benchmark-Fazit eigentlich lauten: Die IT berechnet für einen in der Regel leistungsschwächeren PC acht Mal mehr als sein privater Lieferant…“

Mittwoch, 16. März 2011

Medien und Katastrophen im digitalen Zeitalter

Die Erdbeben/Tsunami/Nuklearkatastrophe in Japan hat gezeigt, dass die Medien mit wenigen Ausnahmen ihre Rolle im digitalen Zeitalter noch nicht gefunden haben. Die Katastrophe führte (und führt immer noch) zu einer ständigen Flut von sensationellen, ungeprüften, gegensätzlichen, widersprüchlichen und auch total falschen Meldungen.

Eigentlich müsste man meinen, dass die Japanische Katastrophe schlimm genug sei, ohne dass sie die Medien noch verstärken. Doch unsinnige Schlagzeilen, wie “Schnee aus der Atomwolke“ auf Blick-Online, demonstrieren das Gegenteil. Natürlich gibt es Medien, von denen die Konsumenten nicht viel anderes erwarten als Sensationalismus und fette Schlagzeilen, die es nicht allzu genau nehmen.  Es ist aber auch der 24-stündliche News-Zyklus, der dazu geführt hat, dass die digitale Informationsmachine ununterbrochen gefüttert sein will – da bleibt schlicht und einfach keine Zeit mehr, sich ein klares Bild der Situation zu machen. Umso verworrener ist das Resultat. Wer versucht hat, sich seit dem Tag der Katastrophe in Japan zum Beispiel per Internet auf dem Laufenden zu halten, wurde von einer riesigen Flut von widersprüchlichen Meldungen auf eine emotionelle Achterbahn geschickt, die fast nur Verwirrung und Furcht hinterlässt. Diese Verwirrung färbt dann auch auf sogenannte Experten ab, wie zum Beispiel den CVP-Nationalrat Pirmin Bischof, der im Verwaltungsrat Kernkraftwerk Gösgen AG sitzt, und im Club von SF1 zum besten gab, dass es schon schlim sei, “was Menschen anrichten“ könnten, und etwas später noch bemerkte, das es sich ja eigentlich beim Jahrtausenderdbeben und dem Supertsunami um “ganz banale Ursachen“ für die nukleare Nachfolgekatastrophe handle.
Das einzige was sicher ist: Es ist eine Katastrophe passiert, die immer noch im Gang ist und die verheerende Folgen hat. Um auf diesen Informationsstand zu kommen, hätte es aber auch gereicht, erst heute die Zeitung zu lesen oder ein Nachrichtenbulletin zu hören. Es gab einige wenige Ausnahmen, wie zum Beispiel die NZZ, das Wall Street Journal und den London Telegraph, die in den letzten Tagen versucht haben, mit erklärenden Hintergrundartikeln die Wertung der apokalyptischen Schlagzeilen zu erleichtern. 
Wir sind übrigens nicht allein in unserer Bewertung der Mediensituation. Rainer Stadler, der Medienexperte der NZZ, schreibt:
“Unerwartete Grossereignisse mit unklarer Faktenlage sind Gift für das Mediensystem. Das zeigt sich erneut bei der jüngsten Katastrophe in Japan. Der Erwartungsdruck, Informationen zu verbreiten, wächst viel rascher als die Chance, überhaupt gesichertes Wissen beschaffen zu können. Zudem können die Medienhäuser ihre Sendekapazitäten viel schneller hochfahren, als sie ihre Gefässe mit verlässlichen Informationen zu füllen vermögen. Die Diskrepanz zwischen technischem Potenzial und Produktsicherheit war am Samstag, also einen Tag nach dem Erdbeben in Japan, besonders auffällig. Das wachsende Angebot von Online-News hat den Zwang zur Aktualität noch einmal verschärft. So verwundert es wenig, wenn klassische journalistische Regeln – «get it first, but first get it right» – an Bedeutung verlieren. Tagesanzeiger.ch etwa meldete am Samstagmittag eine Kernschmelze in Japan, relativierte dann die Aussage mit dem Modalverb «sollen», um später nachzuschieben, es gebe dazu unklare News…“

Sonntag, 13. März 2011

Trotz Katastophe: Japan bleibt Online

Die Erdbebenkatastrophe in Japan, so unvorstellbar ihre Folgen auch sind, hat es nicht geschafft, die japanischen Kommunikationskanäle zu zerstören. Erstaunlicherweise sind die meisten mobilen Netze und auch das Internet auch nach der grossen Verheerung noch grösstenteils funktionsfähig.

Zwar hat vor allem das mobile Netz gelitten, gerade im nördlichen Japan, wo der Tsunami die schlimmsten Schäden angerichtet hat. Die Gründe sind klar: Zerstörte Sendeanlagen, aber auch Millionen von Menschen, die sich Minuten nach dem enormen Erdbeben versucht haben, anzurufen. Japanische Telekommunikationsfirmen mussten ihre Kapazität für Anrufe teilweise einschränken, die Datenkapazität sei aber weitgehend unberührt geblieben. Diese extrem robusten Kommunikationsinfrastrukturen machen es denn auch möglich, dass sowohl das Internet als auch die mobilen Netzwerke eine wichtige Rolle in der Kommunikation der betroffenen Menschen spielen können. So werden auch Twitter und Facebook eingesetzt, um Angehörige wissen zu lassen, dass man noch am Leben ist oder um vermisste Menschen zu suchen.
Gemäss digitaltrends.com präsentiert sich die Internetsituation in Japan um ein Vielfaches besser, als nach dem Erdbeben in Taiwan im Jahr 2006. Wegen zerstörter Unterseekabel wurden damals fast alle Verbindungen von Taiwan ins Ausland unterbrochen. In Japan sieht das zum Glück anders aus – gerade in dieser Krise sind sowohl die Behörden als auch die Bevölkerung auf sämtliche Kommunikationskanäle angewiesen.
Das Japanische Volk hat nun eine unvorstellbare Notlage zu bewältigen. Die Situation in Japan ist dabei nicht hoffnungslos. Die Japaner sind sehr widerstandsfähig und ungeheuer ingeniös – wie der Wiederaufbau nach der atomaren Zerstörung im zweiten Weltkrieg gezeigt hat. Die Welt wird sie dabei unterstützen, diese Katastrophe zu überwinden.


NachtragDie Situation in mehreren Japanischen Kernkraftwerken ist auch heute aus der grossen Distanz und im Chaos nach der Katastrophe sehr schwierig zu beurteilen. Natürlich fehlt es aber nicht an reisserischen Schlagzeilen, vor allem in den Internet-Medien. Artikel, die zum Verständnis der angstmachenden Vorgänge beitragen, sind dünn gesät. Einer davon wurde von der NZZ publiziert. 
Zitat:
"Beim Wort Kernschmelze drängt sich einem die Assoziation Tschernobyl geradezu auf. Entsprechend beängstigt reagiert die Bevölkerung Japans, wenn nun berichtet wird, dass bei den beiden Reaktoren Fukushima 1 und 3 eine Kernschmelze stattgefunden habe. Doch die Situation in Japan ist – wenn auch äusserst bedrohlich – eine ganz andere als in Tschernobyl, und das aus mehreren Gründen: Erstens schalteten sich die beiden japanischen Reaktoren automatisch ab, als die Seismometer im AKW das Erdbeben verspürten. Damit wurde die Kettenreaktion im Reaktor unterbrochen. In Tschernobyl geriet der Reaktor dagegen bei vollem Betrieb in einen instabilen Zustand, der in eine unkontrollierte Kettenreaktion mündete.."

Freitag, 11. März 2011

Die Angst vor dem GPS-Crash

GPS, das globale Navigations-Satellitensystem der Amerikaner, hat sich in kürzester Zeit zu einem unverzichtbaren Tool zur Ortung und Zeitmessung entwickelt. Heute wird das System in unzähligen Anwendungen eingesetzt – und das beunruhigt Spezialisten, die sich mit der Verletzlichkeit des Systems auseinandergesetzt haben.

Die Umlaufbahnen der GPS-Satelliten. Eine Minute
 in der Simulation entspricht 48 Stunden Echtzeit. 
Dass man heute für weniger als 100 Franken ein durchaus brauchbares Sat-Nav-Gerät kaufen kann, mit dem das Kartenlesen dann unnötig wird, ist ja bekannt. Wenn das System mal ausfallen sollte, käme dann halt der alte Strassenatlas wieder zum Einsatz. Das wäre zwar lästig, aber längst nicht die schlimmste Auswirkung, die ein Ausfall der GPS-Signale haben würde. GPS wird aber für viel mehr Anwendungen als nur zum Auffinden von Örtlichkeiten eingesetzt, wie unter anderem bei Wikipedia nachzulesen ist:
“GPS war ursprünglich zur Positionsbestimmung und Navigation im militärischen Bereich (in Waffensystemen, Kriegsschiffen, Flugzeugen usw.) vorgesehen. […] Heute wird es jedoch vermehrt auch im zivilen Bereich genutzt: in der Seefahrt, Luftfahrt, durch Navigationssysteme im Auto, zur Positionsbestimmung und -verfolgung im ÖPNV, zur Orientierung im Outdoor-Bereich, im Vermessungswesen etc. In der Landwirtschaft wird es beim so genannten Precision Farming zur Positionsbestimmung der Maschinen auf dem Acker genutzt. Ebenso wird GPS nun auch im Leistungssport verwendet. Speziell für den Einsatz in Mobiltelefonen wurde das Assisted GPS (A-GPS) entwickelt.“
Dieses breite Einsatzfeld in Industrie und Verkehr hat die Britische Royal Academy of Engineering veranlasst, die Verletzlichkeit von GPS zu untersuchen. Das Resultat lässt aufhorchen. Unsere Gesellschaft sei möglicherweise schon viel zu abhängig von Sat-Nav-Systemen, sagt die Studie und zitiert eine EU-Untersuchung die zum Ergebnis kommt, dass heute schon sechs bis sieben Prozent des Europäischen Wirtschaftswachstums (rund 800 Milliarden Euro) von funktionierender Satellitennavigationstechnologie abhängen.
Funktionierende Alternativen sind im Kommen: Bald sollen ein Europäisches (Galileo) und ein Russisches (Glonass) System bereitstehen. 
Noch eine Bemerkung zur alltäglichen Navigation: Dass ein Ausfall des Systems zu Hunderttausenden herumirrenden Autofahrern führen könnte, ist durchaus möglich, aber glücklicherweise nicht in naher Zukunft. Wenn dann mal die native GPS-Generation am Steuer sitzt (also jene User, die mit Sat-Nav aufgewachsen sind und natürlich keine Ahnung mehr vom Kartenlesen haben), wird auch dieses Szenario durchaus wahrscheinlich. Inzwischen geniessen wir einfach mal die ungeahnten Möglichkeiten, die uns die schöne neue digitale Welt bietet; zum Beispiel die Möglichkeit, eine TomTom App aufs iPhone zu laden, so dass sich der Kauf von zusätzlicher Hardware erübrigt - und natürlich hoffen wir auch, dass die Satelliten in gut 20'000 Kilometern Höhe immer schön funktionieren... 

Montag, 7. März 2011

Gratis Virenschutz ist gar nicht so schlecht

Die Firewall mancher Sicherheitspakete schützt den Rechner schlechter vor Angriffen als Windows 7. Das zeigt ein Test von 13 Internetsicherheitspaketen und vier  kostenlosen Virenscannern, den die Stiftung Warentest in der März-Ausgabe ihrer Zeitschrift test veröffentlicht. Auch der Virenschutz liess bei einigen Paketen zu wünschen übrig. 

Avira: Auch das Gratisprogramm schützt den PC. 
Gegenüber Angriffen von aussen, etwa von Hackern, machen die Sicherheitspakete von AVG, F-Secure, G Data, McAfee, Panda und Symantec den Rechner eher unsicherer. Sie wollen bei der Installation die Windows-Firewall gegen ihre eigene, schlechtere austauschen. Die schlechteste Firewall war die von Kaspersky Internet Security. Sie erwies sich als besonders brüchig.
Wichtigste Aufgabe von Sicherheitsprogrammen ist der Virenschutz. Auch hier war so manches kostenpflichtige Sicherheitspaket schlechter als die vier getesteten Gratis-Virenschutzprogramme. Gar nur "mangelhaft" war der Virenschutz der Agnitum Outpost Pro Security Suite (60 Euro).
Bei den bezahlten Sicherheitspaketen schnitt Bitdefender Internet Security 2011 am besten ab. Wer für das Gratis-Programm AntiVir von Avira einen kleinen Aufpreis bezahlt, erhält das zweitbeste Paket im Warentest. 
Von den getesteten Gratis-Virenscannern war Avira AntiVir Personal sogar der Beste. Zusammen mit der Windows-7-Firewall schützt er den PC ordentlich. Ein Vorteil dieser Kombination gegenüber so manchem Bezahlpaket ist auch die recht niedrige Rechnerbelastung. Einige Schutzpakete beanspruchen nämlich so viel Speicher und Rechenleistung, dass sie den PC spürbar ausbremsen – etwa beim Hochfahren oder beim Kopieren von Dateien.
Die Bewertung der einzelnen Produkte findet sich hier, oder sie kann im Detail Online bei der Stiftung Warentest abgerufen werden, was allerdings kostenpflichtig ist.

Samstag, 5. März 2011

85 Prozent der Schweizer nutzen das Internet

Der Nutzungsgrad des Internets ist in der Schweiz im letzten Jahr noch einmal um drei Prozent angestiegen. Mit 85 Prozent Nutzern bei den über Fünfzehnjährigen kommt nun wohl langsam der Sättigungspunkt. Das TV-Gerät ist in den Schweizer Haushalten immer noch das digitale Lagerfeuer, an dem sich die Familie am liebsten wärmt.

Die neusten Zahlen zur Mediennutzung in der Schweiz entstammen der Kommtech-Studie 2011, die bereits zum siebten Mal von Publica Data in Kooperation mit der Interessengemeinschaft elektronische Medien (IGEM) durchgeführt worden ist. Die Studie hat ergeben, dass der örtlich gebundene PC immer noch jenes Gerät ist, mit dem am häufigsten auf das Internet zugegriffen wird. Die smarten Handys holen allerdings in rasantem Tempo auf. Im Vorjahr gelangten noch  12 Prozent der Nutzer mit einem Smartphone auf das Internet – jetzt zählte die Kommtech-Studie schon 23 Prozent. Dieser Trend zum mobilen Surfen scheint mächtig und unaufhaltsam zu sein, und wird auch durch die sich schnell verbreitenden Apps unterstützt.
Die Studie schaute sich auch den Fernsehkonsum der Schweizer User an. Dabei zeigte sich, dass das TV-Gerät den Medienkonsum immer noch dominiert. Zitat aus dem Newsletter der Public Data AG:
“Der Fernsehkonsum findet auch heutzutage fast ausschliesslich zuhause statt. In den
eigenen vier Wänden dominiert immer noch das normale TV-Gerät, obwohl immer mehr
Personen angeben, TV über einen Computerbildschirm zu schauen. Was die Häufigkeit
der Fernsehnutzung über Internet betrifft, so gibt jeder fünfte Befragte an, dies
zumindest ab und zu nutzen. Täglich oder fast täglich tun dies jedoch erst 1.4 Prozent der befragten Personen.“
Für die Kommtechstudie waren Ende letzen Jahres 2500 Menschen aus allen Schweizer Landesteilen telefonisch befragt worden.

Mittwoch, 2. März 2011

Google verträgt sich nicht mit Google

Während Steve Jobs von Apple mit der Präsentation des neuen iPads einen weiteren Nagel in den Sarg des konventionellen PCs treibt, arbeiten wir uns immer noch mit einem ganz gewöhnlichen HP Notebook durch den Tag. Aber auch in diesem Sektor ist nicht alles Gold was glänzt.

Google-Chrome: Probleme mit der Google-Bildersuche.
Um den Vergleich noch etwas weiter zu treiben: Manchmal ist es Chrome, das da so schön glitzert, genauer gesagt, Google Chrome, der Browser des Internet-Suchmaschinenriesen. Google kann ja mit Chrome schon ganz schöne Erfolge an der Browser-Front erzielen und hat heute mehr Marktanteil als Apples Safari-Browser, nämlich etwas über 11 Prozent. Das ist auch kein Wunder: Der Browser ist tatsächlich ein schnelles und schlankes Tool, wenn es darum geht, sich im Net zu bewegen, das viele Optionen bietet, die das Weberlebnis verbessern. Da erscheint es dann doch ironisch, dass der Browser gerade bei der Google-Suche grössere Probleme an den Tag legt. Zwar nicht bei der Textsuche, aber bei der Suche nach Bildern. Das Net ist voll von Userkommentaren, die nach einer Lösung für das Problem suchen – und zwar nicht erst seit gestern, sondern schon seit Monaten. “Google Chrome und Google-Bildsuche inkompatibel?“ “Google Bildersuche zeigt keine Bilder an“, “Google Bildersuche funktioniert nicht“, sind nur drei dieser tatsächlich ungezählten Hilferufe, die bis jetzt ungehört im unendlichen Cyberspace verhallen. Bei Google scheint man sich auf jeden Fall keine Sorgen über die Funktionsstörung zu machen, die so viel User stört. Jedenfalls haben wir im Net keine Lösung für das Problem gefunden, die funktionieren würde. Bis jetzt haben wir uns damit geholfen, für die Google-Bildersuche den Internet-Explorer von Microsoft aufzustarten, der dann die Aufgabe auch hervorragend und in Sekundenbruchteilen erledigt. Das kann ja aber wohl keine Dauerlösung sein – wir hoffen immer noch auf eine plötzliche Lösung des Problems, wenn Google neue Software zur Verfügung stellt. Ansonsten wartet hinter dem Bühnenvorhang schon der IE 9, von dem man bis jetzt nur sehr Gutes gehört hat.