„best practise“ – bedeutet das auf jeden Fall gut?

Vielfach hört und liest man, dass Projekte oder Lösungen einer „best practise“ entsprechen (http://de.wikipedia.org/wiki/Best_practice). Das soll aussagen, dass die von denen gewählte Lösung dem entspricht, was auch die Besten in dem Bereich machen. Also muss es auch das Beste sein, oder? Klares Definitionsproblem, wer sind in welchen Bereichen die besten und gelten deren Grundsätze tatsächlich auch für einen selbst? Kann ich zum Beispiel im IT-Sicherheitsbereich eine amerikanische Firma als „best practise“ Beispiel verwenden, oder eine aus der EU? Eher nicht, Unterschiede in der Denkweise und in rechtlichen Belangen können dazu führen, dass ein weltweit berühmter Player als Standard nicht tauglich ist.

Recht oft sieht man solche Problematik in der Überwachung von Arbeitnehmern, was in China absolut normal ist, ist in der Schweiz schon die grosse Katastrophe und in gewerkschaftlich organisierten Ländern der EU wie zum Beispiel Deutschland absolut undenkbar. Wo soll denn da nun die „best practise“ entstehen? Das würde in der Konsequenz bedeuten, es gibt in vielen Bereichen viele „best practises“ für ein Problem – was meine Freiheit in der Umsetzung massiv erhöht, was aber den Wert wieder grundsätzlich mindert.

Wie kommt man überhaupt darauf, sich auf technologisch oder organisatorischer Ebene um zu sehen und zu definieren, wer so etwas wohl am besten macht um danach dessen Lösungen zu kopieren? Viele „Systeme“ (nicht nur in der IT – der Bereich liegt mir aber natürlich viel näher als alle anderen) haben eine Komplexität erreicht, welche nur noch mit massivem Aufwand und vielen kompetenten Leuten in den Griff zu kriegen ist – wenn überhaupt. Aber viele Firmen haben diese Ressourcen schlicht nicht zur Verfügung und erhalten so Zugriff auf durchdachte Konzepte. Ich denke, das war dann auch oft ein Vorteil der grossen Beratungsfirmen, die hatten nicht nur selbst viele Ressourcen zur Verfügung sondern gleichzeitig auch noch Zugriff auf sehr viel Manpower (…darf man das noch sagen, oder was wäre das jetzt… humanpower?….) in den Firmen die von ihnen beraten wurden.

Auch ich habe mich manchmal an „best practise“ Grundsätzen orientiert und habe das gar nicht als falsch erachtet. Gefährlich daran war nur gelegentlich die kritische Distanz zu wahren. Nur weil die vermeintlich besten es so machen (oft sind diese Vorbilder ja Grosskonzerne) darf man nicht meinen, dass es für andere Unternehmen (kleinere, flexiblere) nicht Lösungen geben kann die den Zweck genau so erfüllen und mit weniger Ressourcen auch realisierbar sind. Umgekehrt löst die beste Praxis manchmal die Probleme von Kleinbetrieben im Sinne „mit Kanonen auf Spatzen schiessen“ – vielfach lassen sich Systeme oder Organisationen nicht einfach so skalieren sondern brauchen Anpassungen. Im technischen Bereich bedeutet das dann sehr oft, dass man sich vom Vorbild so weit entfernt durch andere Lösungen, dass man gar nicht mehr davon profitieren kann. Somit ist klar, „best practise“ hat auch etwas mit der Firmengrösse und deren Schutzbedürfnis zu tun.

Immer wieder schwierig war für mich in der Vergangenheit, die aktuell gültigen „Vorgaben“ für beste Praxis zu finden. Da das Internet zum Beispiel nie vergisst erhält man oft sehr sehr viele Informationen die keine aktuelle Situation mehr widerspiegeln. Als ich mal auf der Suche nach bester Praxis für verschlüsselte Datenverbindungen war habe ich noch vor wenigen Jahren 3DES als beste Praxis in vielen Studien gefunden. Das Jahre nachdem AES256 (zum Beispiel) bewiesen hatte, dass 3DES keine Zukunft haben kann und darf.  Beste Praxis ist also auch abhängig – in einigen Bereichen mehr, in anderen weniger – von der Zeit.

Persönlich hatte das auch immer ein wenig den Anklang von „man weiss es im Moment einfach nicht besser“. Man hatte also eigentlich Mängel erkannt, wollte oder konnte aber noch keine wirklichen Änderungen durchsetzen. In diesem Sinnen wäre es sogar möglich, das man mit „best pracitse“ Lösungen implementiert, welche von vielen bekannten Mängeln betroffen sind – weil es aber keiner besser kann oder weiss, ist es trotzdem wieder gut. Somit ist beste Praxis absolut keine Qualitätswertung.

Oft hört man gerade im Ausbildungsbereich (ja, auch bei uns….) von Ausbildungen welche „best for practise“ sein sollen, das hat mit dieser Diskussion hier gar nichts zu tun, da will man Inhalte so weiter geben, dass daraus ein möglichst hoher Mehrwert für die praktische Arbeit ergbit, das einzig gemeinsame ist, dass auch in dem Fall dies keine Qualitätsaussage darstellt.

Fazit: Sich an Modell zu halten ist sicher eine gute Sache. Best practise als Modell zu wählen ist sehr gefährlich, weil es keine beste, allgemein gültige Praxis geben kann, zu unterschiedlich sind die Anforderungen. Sogar die Rechtfertigung von „Mist“ wäre mit diesem Modell – was so oder so nicht das richtige Wort dafür zu sein scheint – problemlos möglich. Wenn man halt nichts besseres findet…… Ich werde mich auf jeden Fall hüten, best practise Aussagen als Grundlage für Entscheide zu benutzen oder die hier gemachten Einschränkungen und/oder Probleme detailliert mit einfliessen zu lassen. Nie darf man ohne Überzeugung Dinge tun, nur weil auch andere das tun.

Fazit 2: Das Ganze hier ist eine geschäftliche Sichtweise die sich auch auf private Belange ausweiten lässt – da würde man sich dann sogar sehr schnell noch in die Bereiche des neidischen Nachmachens hinein begeben – keine Welt für mich!

ein CAS/MAS Massaker – oder welche Ausbildung ist die richtige…

Ich wehre mich eigentlich vehement dagegen irgend etwas im Sinne „vielleicht das letzte Mal im Leben“ zu tun. Aktuell überlege ich mir aber eine etwas längere Ausbildung nochmals anzupacken – das könnte dann tatsächlich langsam das letzte Mal im Leben sein. Ich finde Weiterbildung halt einfach etwas tolles – und autodidaktisch gibt es zwei Probleme: 1. man stösst unweigerlich an Grenzen, dort beginnt es zu „schmerzen“ und ich gebe dann eher auf als mich durch zu kämpfen und 2. es ergibt sich daraus keinerlei Anerkennung welche am Arbeitsmarkt irgend einen Wert hätte. Ich habe mir gedacht, so eine Ausbildung für mich dürfte sicherlich bei den Fachhochschulen zu finden sein – es soll ja keine Produkteschulung werden.

Wieso eigentlich nicht Herstellerzertis sammeln, da wäre ich ja direkt an der Quelle..? Ich bin der Meinung dass man Produktzertifizierungen dann machen sollte, wenn diese aus irgend einem Grund zu irgend einem Vorteil verhelfen (z.Bsp. weil die Firma, in der man arbeitet dann eine Partnerschaft aufrecht erhalten kann oder weil man sich grössere Chancen auf einen Job machen kann). Einfach so „auf Vorrat“ macht das m.E. keinen Sinn – müsste ja jemand gerade in der meist kurzen Zeit der Gültigkeit genau diese Zertifizierung verlangen und erst noch viel Wert darauf legen….! Aktuell schiebe ich deshalb auch meine ITIL Foundation etwas vor mir her – sollte ich mal einen neuen Job suchen wollen werde ich diese umgehend machen um das Zertifikat beilegen zu können – aber jetzt …..?!?

Also, bleiben die Fachhochschulen, für mich nahe liegend die Fachhochschule Nordwestschweiz (FHNW – http://www.fhnw.ch), diese gibt es in Orten welche alle per Zug innert ca. 20 – 30 Minuten zu erreichen wären. Also los – was soll es sein – Business, aber etwas ausgeprägt in Richtung IT. Siehe da, mit dem Wunsch bin ich offensichtlich nicht alleine, einige Angebote sind da zu finden. Eine ganze Reihe an CAS Ausbildungen sind in dem Bereich verfügbar, als „Krönung“ gibt es ein MAS. So, aha, jetzt gibt es also all diese CAS Module, alle ergeben ECTS-Punkte. Alles schön, alles klar. Sollte man allerdings den MAS machen wollen, dann muss man sich davon ein paar Module auswählen, da spielt dann plötzlich auch die Reihenfolge eine Rolle *hmmm*. Also ich dacht mir, kann doch alles nicht so verschachtelt sein, bin auf die WEB-Seiten anderer Fachhochschulen und muss sagen, die FHNW ist eigentlich sehr übersichtlich. Es ist wirklich ein Wildwuchs an CAS Ausbildungen welche viele in eines oder mehrere MAS Programme eingebunden sind. Die Übersicht zu behalten bei einer Fachhochschule ist möglich, für mich war es schon sehr unübersichtlich wenn ich die Zürcher Fachhochschulen noch mit einbezogen habe.

Ich bin überzeugt, dass an den Informations-Abenden oder Samstagen die von allen Fachhochschulen angeboten werden da endgültig aufgeklärt werden kann und ein Programm für jeden zusammen stellbar ist. In dem Moment in dem ich die Suche ausgeweitet habe, war ich eigentlich mehr verklärt als aufgeklärt. Es gibt auch einiges an CAS-Ausbildungen bei denen ich finde, es ist nicht wirklich würdig, also „grosse“ Weiterbildung gepriessen zu werden, aber diese Diskussion möchte und kann ich nicht führen, die Beweggründe wieso eine Schule etwas anbietet oder eben nicht sind deren Entscheide und die gehören respektiert.

Bei den Titeln war auch noch etwas spannendes festzustellen. Es gibt Ausbildungen, die heissen bei allen FHS fast gleich mit fast gleichem Inhalt – passt. Es gibt Ausbildungen mit fast gleichem Titel aber pro Schule unterschiedlichem Inhalt – passt. Es gibt Ausbildungen mit unterschiedlichen Titeln aber fast gleichem Inhalt je nach Schule – passt. Eigentlich passt alles, um sich einen Überblick zu verschaffen ist es allerdings eine Katastrophe, ich hatte mir schon überlegt mit Excel was auszuwerten oder so – und von dem Gedanken bin ich noch nicht los gekommen, nur drücke ich mich noch ein wenig vor dem Aufwand.

Es scheint mir, dass die CAS und MAS Ausbildungen abhängig sind von der Schule. Es wird auch bei uns soweit kommen – laut einigen Blogs IST es schon soweit – dass in der Industrie wie in Amerika nicht nur der Titel zählt sondern eben auch an welcher Schule man diesen erlangt hat. Einerseits eine gute Sache, so haben über kurz oder lang qualitativ minderwertige Angebote keine Chance, andererseits wäre es natürlich für mich schade wenn ich eine Ausbildung bei einer Zürcher FHS oder der Nordwestschweizer machen könnte und gerade dort die Zürcher den besseren Ruf hätte – das würde die Ausbildungszeit halt immer um die Fahrzeit erweitern um am Schluss eigentlich „nur“ wegen der Gesamtreputation der Schule besser da zu stehen. Ich habe da allerdings keine grossen Bedenken und wähne mich bei der „Schule ums Eck“ in guten Händen ;-)!

Preise – ja, klar, ein Thema. Allerdings muss ich sagen war ich eher positiv überrascht, die Angebote sind im Preis doch recht „vernünftig“ – wenn man da mit einzelnen Produkteschulungen gerade im IT Bereich vergleicht sind die Angebote sogar eher günstig.

Oh – Zulassung und eidgenössische Ausbildungen wäre da noch so ein Thema. Ich selbst habe einen (schon etwas ältern ;-)) eidgenössischen Titel in Informatik, dieser kommt in Zulassungsbedingungen gar nie oder sehr selten vor. Ich habe mir gedacht das liege daran, dass dieser Titel kurz nach meinem Abschluss seinen Namen gewechselt hat – aber denkste, auch der „Neue“ ist nicht zu finden – geht immer über Gleichstellung! Finde ich irgendwie schade, aber klar, bei all den international automatisch anerkannten Ausbildungen erscheint eine generische, Hersteller unabhängige schweizerische Ausbildung irgendwie fehl am Platz – oder denken wir, wir können etwas besser? Persönlich würde – und wer weiss werde – ich auf einen CAS/MAS setzen, nicht zuletz auch wegen der „Zwischenresultate“ die an einigen Orten zu erhalten sind (einzelne CAS Zertifikate die im Laufe der Ausbildung so zusammen kommen – nicht Semester lang nichts und dann ein Resultat). Preislich ist das nahezu egal ob CAS/MAS oder eidgenössische Ausbildungen, zeitlich auch.

Fazit: Es ist komplex, und das meine ich ernst. Es gibt ein derart grosses Angebot, einen Überblick zu erhalten erscheint mir fast unmöglich. Für mich heisst das, „zu Hause“ anfangen mit suchen (also FHNW) und hoffen, dass ein ideales Programm zu finden ist. Sollte das nicht so sein, auf jeden Fall auf Grund des Ortes und der Erreichbarkeit weiter suchen, nicht auf Grund der Ausbildung! Sollte es die für mich ideale Weiterbildung in St. Gallen geben muss mir das egal sein, es ist schlicht nicht machbar mit grossen Reisezeiten und einer Familie.

Nebensatz – jetzt ist mir so langsam übel hier im Zug, ich frage mich bei meinem Sitznachbar – wie kann man nur so stinken am Montag morgens …… bähh!

 

Bin ich „vergoogelt“ ?

In einem Kurzseminar zum Thema „Marke“ wurde uns erläutert, dass diejenigen Marken gewonnen haben, welche ihre Marke zum Verb gemacht haben.  Dies trifft natürlich auf Google zu (google mal….) wie zum Beispiel auch auf  „fönen“ (Verb der 1908 registrierten Marke Fön) – wer mehr lesen will – http://www.goethe.de/ges/spa/siw/de6383240.htm. Daneben gibt es noch dejenigen Marken, welche eigentlich ein Produkt darstellen – so nenne ich zum Beispiel alle Arten von Styropor schlicht und einfach Sagex (ein Markenname der Firma Sager – Schweiz).

Nun habe ich mich gefragt, ob ich bereits einer Marke auf irgend einer Art verfallen bin. Die meisten Marken – ja, auch BMW – kann ich da ausschliessen. Die betreffen nur einen minimalistisch kleinen Teil von meinem Leben oder ich könnte wenn ich ganz ehrlich sein würde gut darauf verzichten. Die einzige Marke die ich wirklich hängen bleibe ist Google. Ich habe mir hier zum Beispiel auch Apple überlegt – aber im Verlauf des Artikels wird vielleicht klar, wieso diese für mich nicht in gleichem Masse bedeutend ist wie Google.

Früher war Google auch für mich noch eine Suchmaschine, man konnte durchaus zum Beispiel zu yahoo wechseln und man hatte ähnliche Resultate. Zumindest theoretisch funktioniert das auch heute noch – aber selbst Personen die z.Bsp. Bing irgendwo als Suchmaschine eingestellt haben reden aus meiner Erfahrung nicht von „bingen“ und „yahoo-en“ habe ich auch noch nie gehört. Im Internet suchen = googeln!

Ja, im Moment liest man von den enormen Zuwächsen bei yahoo – vielleicht hat das was mit der Standardeinstellung von Safari Mobile zu tun – aber das ist eine reine Vermutung ;-)!

Weit gefehlt natürlich dass bei Google nach der Suche Schluss ist. Ich verwende Chrome (von Google) als Internetbrowser wenn immer möglich – und ich habe bei meinem Arbeitgeber einen e-Mail Account – dessen Basis ist gmail (von Google). Zusätzlich verwende ich freiwillig ein Smartphone von LG – ein Nexus 4, DAS Google-Phone überhaupt – und überall bin ich mit meinem geschäftlichen Account oder mit einem privaten gmail Account (den ich auch brauchte für mein erstes Android Phone – mit der Verpflichtung zu einer speziellen Art von Account ist Google kein bisschen besser als alle anderen…) angemeldet. Das heisst, Google kennt mich oder zumindest mein Surfverhalten bis ins Detail. Selbst wenn die das nicht bei sich abspeichern würden, so wäre doch mein PC eine ideale Quelle um mein Verhalten zu analysieren.

Ist das nun Vor- oder Nachteil, diese Frage stellt sich immer wieder. Was die Vertraulichkeit der Daten angeht ist das garantiert ein Nachteil – aber was sollen wir da überhaupt noch glauben. Berichte von Servern oder anderen Geräten die mit irgend welcher Software verseucht sind die Daten sucht lese ich gar nicht mehr. Erstens weil das so oder so irgendwie klar ist und zweitens und wichtiger – alle die behaupten das sei bei Ihnen anders irgendwo Lügner sind. Das Internet (das wissen wir ja jetzt…) gehört den Amerikanern und unter Berücksichtigung dieser „Tatsache“ ist da rein gar nichts mehr sicher.

Für die Bedienung aber ist das ein immenser Vorteil. Dadurch dass Google mein Verhalten doch recht genau kennt, kann alles für mich massgeschneidert werden. Ich sehe Werbung zu Dingen, die mich grundsätzlich interessieren, die Suchresultate die ich erwarte stehen immer recht weit oben in der Suche und so weiter und so fort. Nur Vorteile durch „Vergoogelung“! Genau dieselben „Vorteile“ erhält man auch bei anderen Anbietern – Microsoft ist da nicht besser, Apple auch nicht. Am Anfang habe ich geschrieben, dass Apple da nicht dazu gehört – ganz einfach weil die nicht alle Dienste aus einer Hand anbieten, die totale Kontrolle über den Benutzerstatus erlangt Google und sonst niemand in dieser Tiefe.

Politisch sehe ich da ganz grossen Nachholbedarf. Ich will nicht sagen, dass es nicht Politiker gibt, welche sich diesen Gefahren annehmen oder sogar verstehen was da geht – aber meist gehören die irgend welchen Randparteien an und können sich (noch) zu wenig Gehör verschaffen. Die Schweiz hat ja in der Zwischenzeit Lösungen für den Cyberwar gefunden, ein Kampfflugzeug aus Schweden muss es richten. Die IT-Projekte der Eidgenossenschaft gehen mehr oder weniger vollständig und reihenweise im Chaos unter – ich glaube kaum dass es da irgend eine „Schatten-IT“ gibt welche die Gefahren aus der virtuellen Welt im Griff hat. Die extrem schwierige Frage dabei – wie sollte man fähige Leute da in die richtigen Positionen bekommen? Vielleicht braucht es eine zweite Politik, eine Art zweite Regierung – rein virtuell, auf dem Netz, ausschliesslich für die Belange der digitalen Welt zuständig. Sobald diese Umfang und Relevanz dieser Welt auf die „normale“ Politik aufgezeigt haben, könnte ein Umdenken stattfinden oder zumindest nicht mehr unrealistisch erscheinen. In der EU – oh, da muss man den Euro retten und die stärkste Nation sitzt die Probleme weiter aus……

Fazit: Ja, ich bin „vergoogelt“ und ich habe keine Ahnung, ob ich das gut oder schlecht finden soll. Die Vorteile bei der Suche, bei der Werbung überwiegen bei mir eigentlich gegenüber der Angst der Datenanalyse durch Dritte. So lange diese Daten nicht missbraucht oder gar manipuliert werden ist die Situation ja auch nicht bedrohlich, allerdings steckt genau da das grosse Problem versteckt. Die zunehmende Kriminalität auf digitalen Wegen ist bedrohlich und wahrscheinlich eine der ganz grossen Gefahren der Zukunft. Ob hochrangige Politiker in Europa im Moment Zeit haben, sich auf solche Dinge vorzubereiten – na ja, ich bin mir da nicht ganz sicher.

Mein erstes IT-Projekt als Benutzer..

Bisher war ich bei eigentlich allen IT-Projekten – ob Software oder Infrastruktur – immer auf der IT Seite beschäftigt oder irgendwo in der Schnittstelle von Business zu IT. Alle diese Projekte konnten durchgeführt und abgeschlossen werden, aber es wäre natürlich gelogen und/oder die Situation massiv beschönigt wenn ich sagen könnte, da lief immer alles rund. Klar ist, ein paar Fehler macht man nur einmal, andere „ergeben“ sich eigentlich immer wieder. Diese sind extrem ärgerlich, aber manchmal nicht wirklich zu vermeiden – dass zum Beispiel der gewünschte Funktionsumfang von Lösungen während des Aufbaus einer Lösung zunimmt hat sich wohl als „normal“ erwiesen.

Nun kann ich zum ersten Mal in meinem Arbeitsleben auf ein Projekt als Benutzer „drauf“ schauen, ohne jegliche Verantwortlichkeiten ausser dem „liefern“ von zum Beispiel Stammdatenmutationen usw. Ich will hier in keiner Weise beurteilen, wie das von mir angeschaute Projekt läuft, dazu habe ich viel zu wenig tiefen Einblick und auf Grund von Terminverzögerungen die Projektqualität zu beurteilen wäre zu einfach und unter Umständen unfair. Eigentlich überlege ich mir nur, welche Seite ist „besser“??

All die Probleme mit konventionellen Projektmanagementmethoden bei der Softwareentwicklung scheinen nun durch „agile Methoden“ gelöst. Tatsächlich adressieren diese einige Problemfelder wie eben zum Beispiel der zwingend wachsende Umfang im Laufe des Projektes. Ebenso lassen Sie ein Mass an Chaos zu, welches immer wieder geordnet wird …. also entstehen neue, gänzlich andere Probleme. Zumindest habe ich mir das so vorgestellt……

Ja, der Beginn ist anders – es gibt keine ins Detail getriebene Pflichtenhefter mehr, es gibt Stories, User-Stories, Story-Boards – einige Begriffe anders für eine auch tatsächlich andere Vorgehensweise. Nur, wer ist denn der „User“ – die Frage bleibt oder wird noch wesentlich zentraler. Unter Kollegen und selbst erlebe ich, dass der interne, administrative Benutzer oft weit in den Hintergrund gedrängt wird bei den User-Stories. So gibt es umfangreiche solche Stories wie sich ein Kunde von extern auf die Systeme verbindet, sucht, eventuell (hoffentlich) Leistungen in Anspruch nehmen könnte. Die Pflege im Hintergrund wird dadurch abgeleitet – auch gut – nur, entsteht da immer etwas, das zu warten, zu bedienen ist für den internen User? Ich denke nein, nicht immer, aber wir haben dem Kunden zu dienen – die Panne ist so rum für die Reputation einer Firma sicherlich die einfachere Sache.

Während den Entwicklungsphasen konnte ich persönlich nicht allzu gravierende Unterschiede zum Beispiel zu einem „Prototyping“ oder gar Vorgehen nach Wasserfallmodell erkennen. Das kommt sicher nicht daher, dass methodisch das sehr nahe liegt sondern eher daher, dass eine reine Form von Vorgehensweisen selten zum Ziel führt. Wasserfallprojekte welche den Rücksprung strikte verweigerten waren zwar manchmal zur richtigen Zeit „fertig“, waren dafür dann funktional unbefriedigend…..also von allem „das Beste“ scheint am besten geeignet zu sein.

Immer problematisch für mich war in Projekte die zeitgerechte und funktional richtige Integration von Stakeholdern – oder kurz, wer muss wann was wissen und/oder tun. Ich würde jetzt mal aus der einen Erfahrung sagen – daran hat sich nichts aber rein gar nichts geändert! Das Management der Stakeholders ist schon zu Beginn schwierig (wer sind diese) und wird im Projektverlauf komplexer. Zu früher Einbezug ergibt sinnlose Diskussionen auf fehlender Basis, zu später Einbezug ergibt unter Umständen Funktionserweiterungen oder Änderungen am laufenden Projekt. Beides kostet am Ende Zeit und somit Geld. Aus meiner Sicht helfen die neuen agilen Methoden in diesen Bereichen nicht wirklich weiter, die Phasen des Chaos lassen eigentlich wenig Integration zu und kurz danach kann unter Umständen schon zu spät sein (weil dann eine „Phase“ oder ein Sprint halt abgeschlossen sind/ist und auf dem Resultat weiter gearbeitet wird – hatten wir das nicht auch beim Wasserfall schon als Problem??).

Aber jetzt wieder zurück auf die Kernfrage – welche Seite ist die „bessere Seite“ in einem Softwareprojekt? Für mich ist der Fall klar – die IT Sicht ist extrem viel spannender – einmal auf der anderen Seite zu stehen würde aber sicher manchem ITler (wie auch mir) gut tun. Das Verständnis für den Benutzer, welcher dann innert kürzester Zeit etwas machen muss, was für Ihn keinen ersichtlichen Nutzen bringt und zumindest kurzfristig nur die Arbeitszeit weiter beengt würde vielen IT-Spezis gut tun. Allerdings gilt das aus meiner Sicht genauso umgekehrt – das Verständnis von Benutzern, nicht immer alles wissen zu müssen zu einem Projekt wäre auch zu steigern. Ich glaube, das wäre auch kein Problem, wenn die IT den Ruf hätte, dass man dann schon informiert wird, wenn es einen braucht!

Fazit: Ich stehe lieber auf der IT-Seite was IT-Projekte angeht. Sehr interessant für mich ist die Tatsache (was allerdings auch eher ein Gefühl von mir ist) dass sich trotz aller Methoden und Möglichkeiten die Probleme in den Projekten nur unwesentlich verändert haben. Ich bin keiner, der an der Vergangenheit hängt – aber trotzdem habe ich manchmal das Gefühl es wurden Methoden erfunden um die unzulängliche Verwendung der alten irgendwie zu kaschieren. IT Projekte dauern länger, kosten mehr und leisten nach der ersten Inbetriebnahme nicht das, was sie sollten. Das war früher so – das ist heute so und nach ein paar Jahren schon dabei befürchte ich fast, das wird auch morgen so sein.

….aber ja, es gibt immer Beispiele für das Gegenteil – ich vermute, diese gibt es komplett unabhängig von der gewählten Methode oder Vorgehensweise. Wenn die richtigen Menschen zum richtigen Zeitpunkt die richtigen Entscheidungen treffen kommt’s gut……

Wie viel „mag ich nicht“ kann man professionell überspielen?

Wer kennt das nicht – es braucht bei einer Zusammenarbeit immer verschiedene Personen, einige davon mag man besser, einige weniger. Nun habe ich mich gefragt (eigentlich aus aktuellem Anlasse im weiteren Umfeld – also auch diesmal sind keine Arbeitskollegen hier gemeint), wie viel „den/die mag ich nicht“ kann man überhaupt akzeptieren oder wie viel ist möglich, ohne dass die Gesamtleistung darunter leidet.

Nun, zu einem Schluss bin ich definitiv in dieser Frage nicht gekommen, aber doch zu einigen für mich gültigen Erkenntnissen. Vielleicht die wichtigste Erkenntnis ist die, dass es extrem entscheidend ist, in welchen Bereichen ich jemanden „nicht mag“! Geht es da zum Beispiel um die Arbeitsweise wird das recht schwierig – man kann sich dann ja nicht hinter der Arbeit verstecken – somit ist es auch nicht möglich, professionell einfach weg zu sehen.

Ganz anders verhält sich das bei persönlichem „mag ich nicht“. Allerdings gibt es auch da deutlich unterschiedliche Ausprägungen – einige sind mir ganz egal, andere gehen auch da nicht. Was mich normalerweise überhaupt nicht stört sind Unterschiede in der Gesinnung – ob nun ein Mensch religiös, nicht religiös, politisch eher links oder eher rechts sich sieht – das ist mir absolut egal. Natürlich gibt es auch da Grenzen, Rechtsradikale finde ich nicht sympathisch und ich könnte wohl auch mit keinem vernünftig zusammen arbeiten. Ich stelle auch fest, dass die Grenze zum „was ist noch ok“ natürlich von meiner eigenen Einstellung abhängt – zum Beispiel ertrage ich Linke „länger“ als „Rechte“ – weil ich selbst mich eher links sehe und somit deren Werte mir näher liegen.

All diese Dinge sind irgend wie greifbar – aber die echten Schwierigkeiten kommen meist nicht von da. Da können Probleme meist benannt, diskutiert und eventuell aus der Welt geschaffen werden. Echt problematisch wird es bei „den/die mag ich nicht, aber frag mich nicht weshalb“! Oft wird diese Situation ja bezeichnet mit „die Chemie hat einfach nicht gestimmt“. Man weiss es selbst nicht, wieso man jemanden nicht mag, man mag den halt einfach nicht! In solchen Fällen bin ich meist machtlos – ich schaffe es nicht, an der Person mit aller Gewalt das Gute zu finden und damit zu leben – ich will das eigentlich gar nicht tun, weil ich mag die Person ja nicht – ein Teufelskreis!

In diesen Fällen entscheidet dann im profesionellen Leben halt nur noch die Frage, wie nahe muss man zusammen arbeiten, wie lange sind die Zeiten, die man zusammen verbringen muss und ist in den Projekten wo beide betroffen sind ein Konsens wichtig. Muss ich als Projektleiter mit jemandem zusammen arbeiten den ich nicht mag, der aber einfach Resultate liefern muss – kein Problem, alles messbar, alles unter Kontrolle. Befindlichkeiten sind egal in dem Moment. Muss ich aber das Ziel gemeinsam erreichen wird ganz sicher die Produktivität eingeschränkt durch diese persönlichen Dinge – mehr Reibung untereinander dürfte nicht zu vermeiden sein.

Fazit: Es gibt kein „wenn ich jemanden 50% nicht mag geht nichts“ sondern alle Grenzen sind fliessend und ob man sich noch zusammen rauffen kann, soll oder will hängt von zu vielen Faktoren ab. Ich habe einiges zu dem Thema gelesen und einige Psychologen kennen viele Tricks wie man sich selbst überlistet – aber irgendwie bin ich zu blöd für solche Tricks, mein Hirn erklärt mir bei jedem Trick, dass es eben ein Trick ist und gar nicht so ist, wie ich mir das einrede! Einen Fakt für mich habe ich herausgefunden – wenn ich jemanden auf den ersten Blick nicht mag, dann bleibt das in den aller meisten Fällen für „immer und ewig“ so – das ist aber glücklicherweise auch umgekehrt der Fall.

Fazit II: Wenn man irgend wo merkt, das läuft auf der persönlichen Schiene nicht gut – sofern möglich sofort abbrechen und versuchen anders zu besetzen! Wenn sich Leute zusammen rauffen müssen ist die Zusammenarbeit immer behindert.

IFA und Apple – beide bieten eigentlich nur „Modellpflege“…

Modellpflege – ein Wort das ich eigentlich erst kenne seit ich mich mit Mercedes Benz Automobilen beschäftige. Andere Marken nennen das „Facelift“ und in der Computerbranche redet man da meist von „upgrade“ oder „update“! Die Mopf – also Modellpflege bezeichnet eine Variante von etwas, was bereits besteht, was aber im Detail, in den technischen Ausstattungsmerkmalen oder im Design überarbeitet und möglichst verbessert wurde.

Heute haben wir erlebt, wie Apple (bisher als Innovationsmonster bekannt und berühmt) uns zeigt, dass das neuste iPhone nun einen Fingerprintscanner und eine bessere Kamera hat. Noch beeindruckender war die Akkukapazität welche von 225 auf 250 Stunden gestiegen ist. Mein Android Phone hält da sogar knapp 300 Stunden durch auf Papier – ich frage mich halt nur, wieso ich meine Smartphones dann immer täglich laden musste (…jaja, 250 Stunden wären ja über 10 Tage….ich glaube ich ernte keine bösen Reaktionen wenn ich behaupte, dass noch NIE jemand das geschafft hat mit einem Telefon, das wirklich als Smartphone verwendet wird – also ein bisschen Mails und Facebook synchronisiert im Minimum…ob iPhone, Android- oder Windowsphone, ganz egal, reale Werte sehen ganz anders aus).

Ebenso haben wir gehört, dass ein „günstiges“ Smartphone aus dem Hause Apple nun 599 Dollars kostet – Schnäppchen, ganz klar, letzte Woche habe ich mir ein LG Goolge Nexus 4 gekauft für CHF 399.–, die reinen technischen Daten sind mindestens ebenbürtig, in vielen Punkten besser! Was bei 599.– günstig sein soll weis nur der Stratege bei Apple, der das „erfunden“ hat. Ohne etwas zu wissen würde ich mal behaupten, dass die Marge bei diesem Phone einfach nur extrem sein kann.

Oh, ich wollte ja nicht nur über Apple lästern hier – iOS 7 erscheint mir wirklich vernünftig und schön, jetzt auch wieder modern. Nachdem Apple hier mal den Takt angegeben hatte sind die im Laufe der Zeit doch etwas zurück gefallen, vor allem was die Optik anging. Jetzt ist das alles wieder schön und ich gehe ungetestet davon aus, dass die Bedienung weiterhin zusammen mit Windows Phone das Mass der Dinge darstellt. iOS 7 ist sicherlich der Höhepunkt der Präsentationen heute – obwohl es sich auch hier eigentlich nur um Weiterentwicklungen handelt.

IFA sonst – Flaute! Eine Smartwatch von Samsung und gebogenen Fernseher von verschiedenen Herstellern. Smartwatches – ich bin mir nicht sicher, ob das jemand braucht – aber die Frage erscheint mir falsch. Wenn es jemand WILL, ist das schon genügend. Aktuell kann ich keinen grossen Nutzen in Smartwatches erkennen ausser die erneute Erhöhung von Stress wegen permanenter Information über Meldungen, welche eingegangen sind. Gebogenen Fernseher sind vielleicht auch gut, allerdings brauchen diese dann um so mehr einen speziellen Platz im Lebensraum – und genau diesen möchte ich Fernsehern nicht zugestehen.

Mein Liebling aus Barcelona, das yotaphone ist leider noch nicht wirklich weiter. Meine Registration zum Pre-Order-Mail und anderen Informationsmails hat nichts gebracht, seit Wochen habe ich nix erhalten.

Fazit: Auf Grund von Informationslücken und einer etwas oberflächlichen Übersicht kann man Apple bestätigen, da hat man sicher einen (notwendigen…) Schritt vorwärts gemacht.  Auf Grund von Leaks überall sind solche Messen aber eigentlich gar nicht interessant, meist wird so oder so nur das bestätigt, was man schon Wochen vorher in der Presse lesen konnte. Ich bleibe bei Android, Windows Phone ist was die Bedienung und die Optik angeht besser, und ich bin überzeugt dass Apple aufholen konnte. Die Spielzeuge für Reiche sind technologisch wieder auf dem neusten Stand….aber dafür freue ich mich ganz fest auf den gebogenen Fernseher, welcher dann so ca. ein Viertel der Wohnzimmer Grundfläche einnehmen wird. Ach was waren wir über Flachbildschirme froh, endlich hatten Fernseher nicht mehr so viel Platz weg genommen….

Smartphone mit Jahrgang 2011 ist nicht mehr zu gebrauchen..

Ich habe auf Grund des Akku-Defekts meines Firmenhandy’s (Samsung Galaxy Note) ein „altes“ meiner Smartphones zu reaktivieren versucht. Ein Sony Ericsson (das hiess damals tatsächlich noch so) XPERIA Ray – klein, irgendwie sexy und mit Android 4.0 kann es eigentlich „alles“ was es braucht! Schon damals war dieses Smartphone nicht wirklich ein Überflieger was die Geschwindigkeit angeht, aber es hatte für die Grösse einen wirklich guten Akku. Damals war ich ja auch noch mehr oder weniger „stationär“ bei der Arbeit, arbeiten im Zug war noch kein Thema.

Nun, was soll ich sagen, ein Handy dass vor zwei Jahren mit Android 2.3.3 ausgeliefert heute auf 4.0.4 läuft und schon damals nicht sehr schnell war ist heute – unbrauchbar. Klar, ist übertrieben, alles geht, ich konnte nichts finden, was nicht funktionieren würde und der Akku hält immer noch erstaunlich lange. Aber hier einige Auszüge wie lange verschiedene Dinge gehen:

– Nummer wählen (bis Zahlenblock erscheint auf dem Bildschirm -> 6 Sekunden

– Kontakte öffnen bis zur Anzeige der Nummern -> 4 Sekunden

– Facebook öffnen bis zur Anzeige der News (WLAN und UMTS, Unterschiede minimal) -> 23 Sekunden

– Gmail-Client öffnen -> 12 Sekunden

– überall in Felder tippen und warten, bis die Tastatur sichtbar wird -> 2 bis 7 Sekunden

Bis auf Facebook tönt da ja alles im niedrigen Sekundenbereich und man könnte meinen, das sei gejammert. Viele von euch wissen aber wahrscheinlich auch, was es bedeutet, auch nur 2 Sekunden vor einem Bildschirm zu warten und nichts passiert! Nach ein paar Jahren in denen ich auch mit Anwender-Betreuung im IT-Bereich zu tun habe weiss ich, dass alles über eine Sekunde als die Arbeit behindernd angesehen wird.

Offensichtlich ist der Single-Core 1 Ghz Prozessor schlicht überfordert mit den modernen Apps. Zur Erinnerung, der erste Prozessor für die Intel PC Welt der 1 Ghz in einem Core erreichte war der Pentium III so kurz vor der Jahrtausendwende – und auch da nur die Topmodelle in PCs für mehrere tausend Franken! 13 Jahre später (ich gebe zu, für Informatikverhältnisse eine halbe Ewigkeit) genügt die Leistung nicht mehr für mobile Geräte für die Jackentasche die 300.– Franken kosten!

Gleiches gilt für die restlichen Eckdaten aus der Technik, ein Speicher mit 480 Mb ist leider mit Android 4.0.4 und den Sony-Tools zu rund 60% voll – noch ein paar Apps und aus – kein Platz mehr Meldungen sind heute auch sehr schwer zu akzeptieren – und ich rede hier nicht von Musik, Filmen und all so Zeugs sondern nur von System und Applikationen! Ja, man kann einige Apps auch auf die zusätzliche SD-Karte verschieben, welche dann bis 4 GB gross sein dürfte, aber die Startzeiten verdoppeln sich dabei und bei sehr vielen Apps geht das nicht – also eigentlich keine Alternative…..

Fazit: Etwas was ich immer tat (ausser bei dem einen Kauf des XPERIA’s) ist hier wieder bewiesen – Hardware sollte man wenn irgend wie möglich bei einem Neukauf immer die „beste“ am Markt verfügbare kaufen. Vielleicht kann man dabei über Tests oder so diejenige mit dem besten Preis-/Leistungsverhältnis suchen und kann dann etwas Geld sparen. Kompromisse in der Leistungsfähigkeit (…das reicht für mich schon….) werden schon mittelfristig zum Boomerang – mit dem Sony möchte man noch nicht mal mehr telefonieren, weil die Tastatur ewig nicht kommt und dann beim suchen in den Kontakten das eintippen erst noch massiv verzögert! …..es geht dabei also nicht um das volle Ausnutzen der theoretischen Fähigkeiten, sondern um den Umgang in der Praxis!

Fazit II: Beim Ersatzkauf jetzt habe ich genau diese Grundsätze wieder verfolgt und das LG Google Nexus 4 gekauft – endlich „nur“ noch Android (nicht noch aberwitzig viele Herstellertools die dann den Rollout neuer Android-Versionen lange verzögern oder gar verunmöglichen) und wieder richtig viel Leistung (4-Kerne Prozessor mit 1.5 Ghz…….eigentlich unglaublich) für weniger als CHF 400.– ohne Abo, ich bin gespannt.

Unifi WLAN „zero-handoff“ Option für mich leider unbrauchbar…

Ich bin ja wirklich absolut überzeugt von den Geräten der Firma Ubiquiti Networks ( http://www.ubnt.com ) – vor allem von den WLAN Accesspoints der Unifi Serie. Die haben bei mir zu Hause alle Probleme gelöst, die wir vorher hatten. Nun haben die eine Enterprise-Technologie gratis eingeführt, nämlich das Roaming der Geräte (….kürzest erklärt – immer mit dem Accesspoint verbunden der den besten Empfang bietet…) ohne der Mithilfe, das gesamte Netzwerk läuft ohne Interferenz auf demselben Kanal. Vorher hatte ich meine drei Accesspoints auf drei Kanälen laufen, die Endgeräte sind dann in der Lage bei schlechtem Empfang den anderen AP zu wählen.

Nun, nur einen Kanal zu betreiben braucht es eigentlich bei mir nicht, ich war aber irgendwie doch scharf auf die Funktion und habe das ausprobiert (grundsätzlich bräuchten Endgeräte mit der Lösung tendenziell weniger Strom, was aber eher nicht nachweisbar wäre – denke ich…). Eine erste Überraschung – die Konfiguration ist ECHT einfach, ein paar Klicks und das steht alles bereit. Eine zweite Überraschung – jedesmal wenn ich einen AP zu füge in die Gruppe der zusammen gehörenden, stirbt das komplette Netzwerk – auch das bei mir kein Problem, als Admin grosser Netzwerke hätte ich eine Freude daran :-(!

Die grösste Überraschung liefert am Schluss dann aber doch wieder die Konfiguration – die Funktion steht nur mit 20Mhz Bandbreite zur Verfügung – was den Datendurchsatz grundsätzlich bei ca. 30 Mbit/s limitiert. Die vorher einstellbare Option 40Mhz bleibt grau, kann nicht mehr angewählt werden. Somit stiehlt diese Option dem System im Prinzip so etwa den halben Durchsatz. Wieso das so ist – ich habe keine Erklärung gefunden…

Es ist nicht so, dass man mit 30Mbit überhaupt nicht leben kann – aber irgendwie ist mir immer unwohl etwas neu einzuführen wenn danach nur noch die halbe Leistungsfähigkeit übrig bleibt, da läuft doch was nicht richtig. Aber – unbrauchbar wurde das System dadurch natürlich noch nicht. Unbrauchbar wurde es auf Grund zweier anderer Problemchen. Spinnt eine Netzwerkkarte (WLAN) im Netz oder hängt sich ein PC halt irgendwie auf, dann läuft praktisch auf dem ganzen Netz nichts mehr, ganz sicher läuft nichts mehr auf den Geräten die an denselben AP verbunden waren, das war schon mal nicht so schön. Was noch unschöner war – mein Geschäftsnotebook (Toshiba) kann mit der Situation irgendwie nicht umgehen, hängt sich auf, hat gar keinen Durchsatz mehr (die Verbindung bleibt immer da, nur der Durchsatz geht zu null). Schade, vorher war dieses Gerät immer bei ca. 60Mbit – jetzt nichts mehr, nur Ärger.

Da ich mit diesem System ja keine grossen Netzwerke bauen muss und da auch die Mobilität der Geräte nicht sehr hoch ist – wenn die mal angeschaltet werden bleiben alle oft an etwa demselben Ort – kann ich auf die Funktionalität gut verzichten. Aber es ist wirklich schade, dass das nicht wirklich richtig gut funktioniert….

Nebenbei – alles im 2.4Ghz WLAN – 5Ghz können meine APs nicht. Ich hatte früher mal einen und musste feststellen, dass unser Haus wohl ein ziemlich guter Käfig ist für die 5Ghz Strahlen. Durch keine Wand hindurch hatte ich noch vernünftigen Empfang. Ich beobachte dies auch beim Nachbarn, dessen 2.4er Netz sehe ich mit guter Leistung, dessen 5er (das vom selben AP kommt) gut 40% schwächer.

Fazit: Vielleicht ist es doch nicht möglich, im billigen Segment alle Funktionen der Enterprise-Lösungen umzusetzen. Die Umsetzung bis zu einem Draft ist wahrscheinlich auch kein Problem, durch die Vielfalt der sich verbindenden Geräte artet das Testen aber wohl zu einem ewigen Werk aus, vor allem wenn nicht unbeschränkt Mittel dafür zur Verfügung stehen. Ich bin weiterhin von der Technologie die die Firma anbietet zu dem Preis begeistert – bei der ganzen Übung konnte ich auch mal wieder erkennen, wie extrem einfach die Konfigurationen sind. Wenn ich da an die Cisco’s zurück denke, die ich früher mal geschäftlich zu warten hatte….

Tools die mehr können als Originalsoftware…

Viele Hersteller versprechen uns Programme die Dinge können, bei welchen die Hersteller der Originalsoftware behaupten, dass das nicht geht. Nachdem ich vor vielen Jahren schon mal mit irgend einer Partitionssoftware meinen Ärger  hatte an einem Server (da habe ich dann eine Nacht lang durchgearbeitet damit „meine“ Benutzer am Morgen wieder arbeiten konnten) habe ich mir geschworen: so etwas kommt mir nicht mehr in die Tüte.

Jetzt habe ich ja zu Hause einen „Server“ – also einfach ein Gerät das immer läuft und welches die Funktionen Medienserver, WLAN-Adminserver, iTunes-Server, Datenserver und Backupmaschine für Bitcasa und einige mehr übernimmt. Dieser war ausgestattet mit doppelt Bootdisk und doppelt Datendisk in einem speziellen Laufwerksgehäuse – dessen Lüfter massiv Lärm gemacht haben.

Also habe ich mich dazu entschlossen, auch dieses Servergerät auf SSDs umzurüsten, die Datendisk in das normale Gehäuse einzubauen und so viel Lärm zu sparen. Damit das auch fix geht, habe ich nicht einfach eine SSD gekauft sondern eine SSD inklusive einem Datentransfertool und angeschlossen – geht ja dann alles ganz einfach.

Tool installiert, Kopie starten gedrückt und Sanduhr angeschaut. Nach etwa zwei Minuten teilt mir die Software mit, dass auf meinem PC keine Bootpartition vorhanden ist – ??? -> lesen, das war schon mal nicht so gedacht! Es steht nicht in der Anleitung – aber scheinbar ist es sonnenklar, dass ein solches Tool Bootpartitionen die als dynamisch gekennzeitchnet sind nicht kopieren kann. Gut, muss ich das halt umstellen – aber da war doch was, oder? Ja genau, als ich diese Partitionen auf dynamisch gestellt habe – damit ich diese spiegeln konnte, weil ich nur einen Hardwarecontroller für RAID für zwei Disks habe – hat mir Windows ja gesagt, dass ich das nicht mehr rückgängig machen kann….hmmmm…!

Vielleicht liegt es ja nur daran, dass ich gespiegelte Disks verwende – auf jeden Fall einen Versuch weg. Spiegel weg, eine Festplatte abschalten und nochmals versuchen – nix – keine Partition gefunden. SCH….., doch alles neu installieren – oder gibt es etwa andere Lösungen – google befragen, eindeutig! Google sagt mir zuerst mal, dass das nicht geht um dann ein bisschen später mir zu zeigen, dass ich nur ein Tool runter laden muss und das alles dann bestens geht. Tönt gut, vielleicht ist das ja mal wieder so eine Sache, die Microsoft einfach nicht umsetzen will…….muss ich haben, das Tool. Runterladen, installieren und los gehts, wenn es schief geht habe ich ja noch die zweite Disk mit allem drauf – ähm, das war ja ein Softwarespiegel – ob die dann auch wirklich bootet? Diskette oder CD dafür habe ich nicht, das Gerät verfügt auch gar nicht über die Laufwerke.

Das Tool analysiert meine Festplatten (320GB mit ca. 40GB belegt, also nicht alle Welt) zuerst mal um mir dann zu sagen, dass eine Konvertierung in einen Basis-Datenträger möglich ist, nur noch hier klicken. Aber hoppla, schlimmer kommts nimmer, klar, mach doch. Dann dauert es – und dauert ohne dass man optisch auf die Idee käme, dass wirklich was passiert. Also gehe ich mal in den Keller wo das Teil steht und siehe da – Festplattenanzeige leuchtet dauerdunkelrot – wird schon richtig sein, dauert halt. Dann nach ca. 40 Minuten ein Neustart welcher mehrere Minuten dauert und danach mein ganz normaler „Server“, wie vorher. ABER, der Diskmanager sagt mir, dass ich jetzt auf einer Basispartition laufe – also sofort SSD-Tool wieder rein und los – und siehe da – läuft auch perfekt! Wenige Minuten später kam der wirklich mühsame Teil, Server vom Regal holen, alle schön verlegten Kabel raus reissen, sich die Finger zerkratzen beim runter holen – wie es halt sein muss :-(!

Booten mit der SSD – gar kein Problem, läuft auf Anhieg – dauert einfach 20 Minuten! Irgend was stimmt da nicht……wieder google der mir sagt, dass mit gewissen Mainboards die SSD-Firmware aktualisiert werden muss, mach ich doch! Bis ich dazu komme und alle notwendigen Tools installiert habe, muss das Gerät zweimal neu starten = 40 Minuten dauerts halt schon *grr“! So langsam ist auch der neue Tag angebrochen in der Zwischenzeit…..

Nach dem Update der Firmware dauert ein Neustart nicht mehr 20 Minuten sondern nun nur noch 20 Sekunden – yes, alles perfekt – denkste! Das WLAN-Tool startet schon mal gar nicht mehr und meint, es könne irgend welche Daten nicht lesen. Auch deinstallieren geht nicht richtig (weil es irgend welche Daten nicht lesen kann) und bei der Neuinstallation können folgerichtig irgend welche Daten nicht geschrieben werden. Ach, installier ich das Ding halt ganz wo anders, brauchts ja nicht…….oh, noch eine Fehlermeldung von Bitcasa – läuft nicht mehr mit Fehler *ç%/)ç%//%(ç)(ç%( oder so. Google meint das könnte damit zu tun haben, dass irgend welche Daten nicht gelesen oder geschrieben werden können….

Spätestens jetzt war klar, die zu diesem Zeitpunkt ca. 6 Stunden dauernde „Migration“ hat schon deutlich mehr Zeit verbraucht als eine Neuinstallation, welche so oder so jetzt fällig sein dürfte.

Fazit: Zum zweiten Mal schwöre ich mir nichts mehr zu tun wenn Microsoft mir eindringlich mitteilt, dass es nicht geht. Sollten andere Hersteller mit Tools mir weis machen wollen, dass etwas doch geht hoffe ich in Zukunft widerstehen zu können! Ich will nicht sagen, dass das alles Schabernack ist, aber es funktioniert einfach nur in speziellen Situationen fehlerfrei. Dass solche Übungen einfach eine Nacht lang dauern dürfte keinem, der schon mal abends angefangen hat am PC rum zu basteln überraschend vorkommen ;-)! Ich lasse in Zukunft die Finger von allen Tools die mir Dinge extrem vereinfachen wollen oder gar Dinge tun wollen, die laut Hersteller nicht gehen – noch NIE habe ich damit – zumindest über längere Zeit – gute Erfahrungen gemacht!

Mit dem Fahrrad ans Strategiemeeting – ein Selbstversuch

Schon im letzten Jahr habe ich mir vorgenommen mal von der Arbeit in Zürich mit dem Velo nach Hause zu fahren. Leider habe ich das nie hin gekriegt, Wetter und andere Umstände haben den Plan jeweils kurzfristig vernichtet. Nun wurde ich eingeladen zu einem eineinhalb Tage dauernden Meeting in Baden, startend am ersten Tag mit dem Mittagessen.

Das war jetzt wirklich die Gelegenheit, jetzt oder nie. Ich habe also beschlossen mit dem Fahrrad an dieses Meeting zu fahren und wenn das Wetter und mein „Zustand“ das zulassen auch wieder nach Hause. Um ganz ehrlich zu sein, um den Zustand habe ich mir nicht viele Sorgen gemacht, unter 100km auf der Strasse sollte eigentlich auch auf zwei aufeinander folgenden Tagen machbar sein. Aber die Rückfahrt konnte halt nicht vor 1800 etwa starten, da waren durchaus ein paar Fragezeichen im Kopf!

Am ersten Tag also auf das Rad und weg gefahren. Eine für mich kleine Überraschung erlebte ich beim Befahren der „nationalen Radrouten“ – diese werden durch die Nummern auf den roten Radweg Wegweisern definiert. Diese Radrouten sind immer schön angelegt, umfahren grössere Agglomerationen oft weiträumig – kurz, eigentlich führen die immer über den „schönsten“ Weg für Radfahrer zum Ziel. Allerdings ist dieser Weg auch deutlich länger als die direkten Routen. So wurden bei der Hinfahrt aus 78 berechneten 97 reale Kilometer.

Zum Glück hatte ich wirklich genügend Zeit eingeplant – es ist nichts lästiger als zu wissen, dass die Zeit knapp werden könnte. Auf dem Fahrrad passiert bei mir dann immer folgendes: ich fahre schneller, achte auf die Zeit und mag kurz vor Schluss fast nicht mehr weil ich vorher immer etwas zu schnell war. Diesmal hat es gereicht, die fast 33 Grad bei Ankunft sprachen auch eine Sprache für sich – 3 Liter Wasser waren bei Ankunft aus dem Rucksack weg!

Gut, kurz duschen, umziehen, trinken – Mittagessen nach dem Eintreffen aller anderen Teilnehmer. Richtig entspannt (wenn auch weiterhin schwitzend) habe ich mich gefühlt. Der Körper ist natürlich ein bisschen müde, aber nicht so, dass sitzen Probleme bereiten würde. Dafür bin ich der Meinung, dass das Gehirn bei der Aktivität sehr viel Sauerstoff abgekriegt hat und so richtig bei der Sache war. Was vielleicht etwas untergeht ist der „Kampfgeist“ – ich denke, man wird etwas sanftmütiger und geduldiger. In meinem Fall ist dies oft nicht als Nachteil zu werten :-)! Die Hinfahrt war eine sehr schöne Fahrt und die Sitzung gut, persönlich habe ich das Gefühl dass diese körperliche Belastung vorher wirklich locker gemacht hat. Ganz sicher hätte sich das Meeting anders angefühlt, wäre ich direkt vom Bürostuhl mit dem Auto an den Mittagstisch gefahren.

Ich gebe zu, sich um 18 Uhr wieder bei knapp über 30 Grad umzuziehen mit der Aussicht, ca. 4 Stunden zu radeln ist nicht ein sooo tolles Gefühl. So ganz kurz kam schon mal auf, ob das wirklich nötig ist. Da kamen mir allerdings meine Kolleginnen und Kollegen zur Hilfe die fragten „willst Du jetzt wirklich noch heim fahren“ – ja aber hallo, ich bin ein Mann und ich kann das. Aus lauter Trotz wurde aus den leisen Zweifeln absolute Überzeugung.

Was soll ich sagen, auch das war eine herrliche Geschichte. Nach solchen Meetings habe ich im Kopf immer sehr viele offene Punkte. Diese zerren dann entweder am Schlaf an dem Abend – oder aber gehen verloren sobald der Arbeitsalltag mich wieder im Griff hat. In den vier Stunden auf dem Velo (es wurden dann nicht ganz vier) konnten all diese Punkte perfekt abgearbeitet werden – nichts ist „offen“, ich habe für mich in allen Punkten eine Lösung oder einen Ansatz gefunden. Dieses verarbeiten oder auch mal vergessen während des Sports ist so oder so eines meiner Hauptargumente dafür Sport zu treiben. Viel angenehmer als am Tag zuvor war natürlich, dass die Temperaturen auf der Heimfahrt nach liessen und nicht gestiegen sind….und dem Sonnenuntergang entgegen fahren wäre für die Romantiker auch wunderschön gewesen – jaja, ich finde es auch schön, solange ich den Sonnenuntergang sehe regnet es nicht ;-)!

Fazit: Für mich ist das Experiment voll und ganz aufgegangen. Ich war am ersten Tag sehr entspannt und im Kopf frisch und voll dabei. Nach der Veranstaltung war ich in der Lage, alle Gedanken zu ordnen und danach meine „internen“ Entscheidungen zu treffen zu den einzelnen Punkten. Zu Hause angekommen waren familiäre und private Themen sofort auf dem Tisch und präsent – nicht nur halbherzig weil noch so viel im Kopf rum schwirrt von der Sitzung. Ich werde das vermehrt versuchen zu tun  – vielleicht schaffe ich es ja in diesem Jahr mal von der Arbeit nach Hause zu fahren. Selbstversuch geglückt – Wiederholung erwünscht!