Heute habe ich wieder ein kleines Video zur NI MASCHINE für Euch. Dieses Produkt ist zweigeteilt und besteht neben der Software für Mac und PC aus einem ausgefuchsten Controller mit einmalig guten Drum-PADs. Wendet man den Blick vom Display seines Computers ab, so kann versteht man das Konzept. Der Hersteller Native Instruments hat sich hier viel Geld gespart. Statt einen komplexen eigenen Computer zu entwickeln, hat man einen Controller mit USB-Interface gebaut. Alles was dieses Ding braucht um eine Drum-Maschine zu sein übernimmt ein via USB 2.0 Interface angeschlossener Mac oder PC – kein schlechtes Konzept!
Eigentlich bedient man die Software mit dem Controller, aber sie läuft auch ohne den Controller und man kann sie in Teilen recht gut mit der Maus bedienen. So läßt sich schnell und einfach aus einzelnen kurzen Pattern und Scenes ein Mix erstellen der diese Komponenten in der Reihenfolge enthält die einem beim Mix gerade so in den Sinn kommt.
Hier ist mein Beispiel:
Will man auf dem Mac unter OS-X die Musik live aufzeichnen die man mit der MASCHINE live erstellt, so kann man dies bspw. mit dem Quicktime Player erledigen. Diese Software kann nicht nur Bildschirm-Sessions aufzeichnen (wie im Video oben gezeigt) sie kann auch separate Audio-Spuren aufzeichnen. Sehr praktisch wenn man ein wenig „Live“ experimentieren möchte. Auf meinem MacBook hat das allerdings zunächst einmal NICHT funktioniert!
Abhilfe schaffte die kostenlose Software „Soundflower“. Nach der Installation klappte es allerdings auch nicht auf Anhieb. Ich musste via Terminal einige Befehle eintippen und die Berechtigungen für die Soundflower-Erweiterungen korrigieren. Danach klappte es aber recht gut. Nur die Lautstärke der Aufzeichnungen hängt von der eingestellten Notebook-Lautstärke ab! Entweder ist der Audio-Pegel der Aufnahme viel zu leise oder es fliegen einem die Ohren weg. Hier muss man einen Mittelweg finden! Abhilfe kann hier ggfs. auch ein separater Kopfhörerverstärker schaffen. Oder man lötet sich einen kleinen Adapter mit zwei dicken Widerständen zusammen den man zwischen Kopfhörer und Audio-Ausgang schaltet. Die Wiederstände sollten dabei etwa 270 – 470 Ohm haben, die Leistung der Widerstände sollte bei etwa 1/8 Watt liegen. (Meine Schätzung!! Im Zweifel hilft hier nur „Ausprobieren“)
Seit etwa 10 Jahren gibt es nun schon eine Musikrichtung mit dem schönen Namen Dubstep. Doch in Deutschland ist sie erst seit kurzer Zeit wirklich populär. Mein Freund Fabian sagt in seiner unnachahmlichen Art gern mal, dass Dubstep aus einer Ansammlung von WopWopWops und YepYepYeps besteht. Hier habe ich ein Video für Euch in dem zwei coole Jungs über die Kinect-Steuerung der XBox 360 die Software Ableton auf einem Mac steuern und damit krassen Dubstep machen. Es ist anstrengend das anzuhören aber die Idee finde ich faszinierend. Eine ähnliche Art zu musizieren gab es zuerst und auch schon fast zuletzt mit dem Theremin. Doch dieses uralte krasse Ding war nicht wirklich polyphon und erlaubte auch kein rhythmischen Figuren. Es war eher ein Instrument das zur Untermalung von Sience-Fiction-Filmen in den 50er und 60er Jahren verwendet wurde.
Ganz witzig finde ich, dass dennoch einige Größen der Rockmusik wie bspw. Jimmy Page von Led Zeppelin gelegentlich sogar auf der Bühne ein Theremin aufgestellt und es in einen Solopart integriert haben.
Hier ist nun ein Video in dem diese zwei Typen eine Art modernes Theremin spielen. Elektrostatische Felder gilt es dabei nicht mit der Körperhaltung zu verändern. Vielmehr wird hier mit Licht und den Händen ein genial flexibler Software-Sequenzer gesteuert. Auch wenn man das Ergebnis nicht mögen muss, es zeigt dennoch wie Musik in den nächsten Jahren aussehen könnte. Vielleicht werden unsere Enkel statt mit der Blockflöte irgendwann mit der XBox 720 im Wohnzimmer vor dem großen Fernseher musizieren. Aber und das ist entscheidend, es wird anders klingen und aus der Kinect-Steuerung wird keine Spucke fließen 🙂
Hier ein Video in dem Jimmy Page den „Master of the Theremin“ gibt 🙂
Dass man mit einem Theremin auch „richtige“ Musik machen kann zeigt dieses Video sehr eindrucksvoll..
Nachdem die Software zu meiner neuen „NI Maschine Mikro“ auf dem 13″ Mac läuft versuche ich mich auch mal an meinem „Männercomputer“ der unter Windows 7 Ultimate 64-Bit betrieben wird. Die Installation verläuft genau wie auf dem Mac, es werden etwa 11 GB Loops, Sounds und Samples und einige weitere Programme installiert. Mehrfach wollen die Installationsprogramme den Computer neu starten, aber statt dessen starte ich einfach die nächste Installation. Als alles fertig wird dann doch ein „kumulierter Neustart“ fällig. Danach wird wie auf dem Mac das ServiceCenter aufgerufen. Auch hier macht es ein „Selbst-Update“ und im Gegensatz zum Mac funktioniert es sogar. Wie beim Mac müssen jetzt Updates für alle installierten Programme aus dem Internet heruntergeladen werden. Das geht aber zügiger weil diese Updates deutlich kleiner sind. Nach etwa einer Stunde und einem weiteren Neustart ist alles erledigt und meine neue „Maschine“ ist endlich startklar!
Der Sound ist wirklich bombastisch, bereits über die Computer-Lautsprecher mit Subwoofer kommen alle Demosongs so daher, dass man sie gleich auf eine CD brennen könnte. Das ist schon genial und entschädigt für den Installationsmarathon.
Ernüchterung kommt allerdings beim ersten Versuch auf, einen der Demosongs mit weiteren Drums und einer neuen Bass-Spur zu beglücken. Läuft ein Song mit 120 bpm (Beats-Per-Minute) gemütlich vor sich hin und versucht man ganz einfach bspw. die Bassdrum im Rhythmus mitzuspielen, so kört man sie immer mit einer starken Verzögerung. Damit kann man nicht wirklich etwas anfangen und das frustriert. In den Einstellungen der Software „Maschine“ kann man die Treiber für die Audiokarte auswählen. In meinem Computer ist einer relativ hochwertige Soundblaster Xtreme verbaut. Um Musik zu hören ist sie wirklich gut, aber ohne spezielle ASIO-Treiber (Audio-Stream-Input-Output) geht hier gar nichts. Entweder finde ich also irgendwo einen passenden ASIO-Treiber, baue eine andere ASIO-fähige Soundkarte ein oder benutze die neue „Maschine“ einfach nur auf dem Mac.
Mir zeigt das wieder einmal warum der Mac in der Musikszene so erfolgreich ist. So nervtötend Apples Closed-Shop-Prinzip manchmal auch ist, es funktioniert im Detail oft sehr gut. Die in den Mac-Computern verbauten Komponenten sind immer gleich und Softwarehersteller wie NI (Native Instruments) können sich darauf verlassen. Klar kann man zusätzliche USB-Audiointerfaces und vieles mehr mit der „NI Maschine“ kombinieren, aber es funktioniert mit kaum spürbarer Latenz selbst auf einen kleinen 13″ MacBook Pro mit i5 CPU ganz problemlos und sogar auf Anhieb!
Nachdem die ASIO-Ernüchterung verarbeitet ist versuche ich mich an meinem 17″ MacBook mit i7 CPU. Schauen wir doch mal ob die 8 Prozessorkerne hier irgendeinen Vorteil bringen? Die Installation ist genau wie beim 13″ MacBook. Allerdings sauge ich mir die vielen Updates nicht erneut sondern kopiere sie einfach über das heimische WLAN vom „kleinen Bruder“. Trotzdem dauert es auch hier etwa eine Stunde bis die Software zur „Maschine“ startklar ist. Nachdem ich eine wenig experimentiert habe wird klar, dass es eigentlich keinen Unterschied macht ob man ein 13″ oder 17″ MacBook benutzt. Auf dem schnelleren größeren MacBook funktioniert „Maschine“ wirklich gut.
Mitten in der Nacht kommt es mir dann in den Sinn eine kleines Demo-Video mit Final-Cut-Pro-X zu erstellen. Sogleich tritt Ernüchterung ein. Um die gewaltigen neuen Datenmengen überhaupt installieren zu können musste ich die SSD-Festplatte aufräumen. Unter anderem habe ich einige importierte Videos gelöscht. FCPX (Final-Cut-Pro-X) will nun aber beim Start das letzte Video restaurieren, aber es ist längst Geschichte. Nachdem ich eine Weile gewartet habe starte ich die „Aktivitätsanzeige“ und lese dort „Final Cut Pro X – antwortet nicht…“. Also wird der Prozess hart beendet und eine Protokoll an Apple verschickt. Beim nächsten Startversuch das gleiche Spiel. Irgendwann fragt FCPX dann ob es weiterhin versuchen soll das letzte Projekt wieder herzustellen. NEIN!
Dann versucht FCPX auf die neu installierten Treiber der „NI Maschine“ zuzugreifen – warum, das wissen nur die Götter – jedenfalls schlägt es fehl. Einige Versuche später läuft FCPX dann endlich. Mir zeigt dies wieder einmal, dass die Apple-Welt nicht so schön ist wie sie von den ambitionierten Verkäufern bei GRAVIS & Co. immer gemalt wird. Die eine oder andere Hürde gilt es auch hier zu nehmen…
Nach etwa 10 Minuten ist mein kleines Video dann fertig:
Bereits vor einigen Monaten habe ich mir eine Nikon AW-100 gekauft um auf meinen Motorradtouren eine Kamera dabei haben zu können die ordentlich was einstecken kann und trotzdem gute Bilder liefert. Diese Rechnung ist aufgegangen und meine AW-100 ist in den letzten Wochen mit einem guten Freund sogar um die halbe Welt bis zu den Kapverdischen Inseln gereist. Einige Beispielbilder und Videos dieser Reise wird es in Kürze hier zu sehen geben.
Dann hat mich vor einer Weile eine E-Mail von Stefan Wulfert erreicht. Stefan hat auch eine AW-100 und war sich nicht ganz sicher ob er sich einen Polfilter kaufen soll. Ich habe ihm dazu geraten und er hat mir kurze Zeit später einige Beispielbilder per E-Mail geschickt. Diese Bilder hatten keine schönen Farben, sahen blass aus und ihnen fehlte „eigentlich alles“. Stefan war gefrustet, er hatte sich erhofft durch den Polfilter automatisch gute Bilder hinzubekommen. Seinen Frust konnte ich ein wenig zerstreuen. Denn ein Polfilter kann nicht zaubern! Die Fotografie ist „Malen mit Licht“ – hat man kein gutes Licht, so gibt es auch keine schönen Farben und damit letztlich keine schönen Fotos!
Stefan hat sich das zu Herzen genommen und die ersten Beispielfotos erneut mit der AW-100 fotografiert, diesmal bei schönem Wetter und blauem Himmel. Den Polfilter hat er bei allen Bildern verwendet. Jedes der drei Beispiele hat er einmal mit eingebautem HDR-Modus und einmal ohne HDR fotografiert. Hier sind seine neuen Beispiel-Fotos: (Anklicken für 1000er Größe)
Motiv 1 – Polfilter mit HDRMotiv 1 – Polfilter ohne HDRMotiv 2 – mit Polfilter mit HDRMotiv 2 – Polfilter ohne HDRMotiv 3 – Polfilter mit HDRMotiv 3 – Polfilter ohne HDR
Schaut man sich diese Fotos an so fällt sofort auf, dass der HDR-Modus deutlich kräftigere Farben bewirkt. In Verbindung mit dem Polfilter ist eigentlich schon alles so wie man es sich wünschen würde. Wer sich vom HDR-Modus der AW-100 jetzt aber HDR-Wunderbilder erhofft wie man sie aus den diversen Foto-Portalen kennt, der wird enttäuscht werden. Der Chip der AW-100 ist sehr klein, daher ist die erzielbare Dynamik-Umfang nicht sehr hoch. Helle Bildbereiche sind schnell überstrahlt und ohne Zeichnung. Hier hilft der HDR-Modus um diese kleine konstruktionsbedingte Schwachstelle zu umgehen. Ich denke die Bilder zeigen, dass der HDR-Modus gut funktioniert und durchaus befriedigende Ergebnisse liefert.
Zum Polfilter: Auf allen drei Motiven sieht man eine Wasserfläche die in einem spitzen Winkel fotografiert ist. Die Stärke eines Polfilter besteht darin, dass man Reflektionen die nicht metallischen Ursprungs sind wegfiltern kann. Damit das funktioniert muss man den Polfilter drehen können. Im Idealfall kann man so in das Wasser hineinschauen, kann Schaufensterscheiben „auflösen“ und Menschen in ihren Autos fotografieren, ohne dass die Windschutzscheibe stört. Dafür muss man den Polfilter aber in die richtige Stellung drehen!
Ich denke, dass bei den drei Beispielbildern die Farben sichtbar intensiver abgebildet worden wären, wenn Stefan den Filter ein wenig mehr in die „ideale“ Position gedreht hätte.
Schauen wir uns Motiv 3 etwas näher an. Hier fällt auf, dass die Häuser ein wenig schief zu stehen scheinen. Der Horizont ist sehr nah bei der Bildmitte und der wolkenlose eigentlich sehr schöne „Frühjahrs-Himmel“ sieht etwas langweilig aus.
Ein ganz alter Spruch besagt:
Amateurs worry about equipment.
Professionals worry about money.
Masters worry about light!
Das sieht man hier sehr schön. Das Motiv ist eigentlich nicht uninteressant aber das Licht war an diesem Tag zwar „schön“ aber eher für einen Spaziergang als für ein beeindruckendes Foto. Hier wäre mein Tipp, dieses Motiv in einer frühen Morgen- oder Abendstunde mit Polfilter und HDR zu „erarbeiten“. Damit es nicht verwackelt ist sollte man ein kleines Stativ verwenden und den Selbstauslöser verwenden. Den VR würde ich abschalten, denn mit Stativ und Selbstauslöser braucht man ihn nicht und ohne VR ist das Objektiv mit hoher Sicherheit korrekt zentriert, was man bei aktivem VR nie mit Sicherheit sagen kann.
Hier nun eine Version von Motiv 3 bei der ich das Bild ganz leicht gedreht und einen etwas anderen Bildausschnitt gewählt habe. Eine simple Korrektur die man sogar ausführen kann BEVOR man das Foto aufnimmt!
Hier ist nun eine Variante bei der ich das Bild in Photoshop geöffnet habe. Dann habe ich die aktive Ebene mit Strg-A, Strg+C und Strg+D in die Zwischenablage kopiert. Anschließend habe ich in Photoshop eine leichtes HDR-Toning angewendet und die „original“ Ebene via Strg+V darüber gelegt. Mit einer Ebenenmaske habe ich dann den zu krassen „HDR-Himmel“ gegen den ursprünglichen Himmel ausgetauscht. Die Bearbeitungszeit betrug etwa 30 Sekunden!
So ist es schon etwas spannender, weil es klare diagonale Linien gibt die das Auge des Betrachter mitten ins Stadtzentrum lenken. Auch die Farben sind schön kräftig, fast schon zu bunt.
Doch wirklich zufrieden kann man mit dem Ergebnis immer noch nicht sein. Also habe ich erneut das Originalbild geöffnet. Dann habe ich Perspektive, Horizont und Verzeichnung des Objektivs korrigiert. (Dialog Lens-Correction) Anschließend habe ich (da es ja nur ein Beispiel ist) einen beliebigen Sonnenuntergang ausgesucht und ihn mit einer Ebenenmaske über den langweiligen blauen „Original-Himmel“ gelegt. Danach habe ich die Ebenen zusammengefasst und den Photo-Filter „Warm“ angewendet. Via Lens-Correction habe ich danach eine ausgeprägte Vignette erzeugt um dem Bild einen etwas altmodischen Stil zu geben. Zuletzt habe ich es noch ganz leicht über den Hochpassfilter nachgeschärft. Das Ergebnis ist nicht wirklich überzeugend, da der Schattenwurf der Häuser usw. völlig falsch ist. Aber es ist ja auch nur als Demo gedacht um zu zeigen wie sich der Stand der Sonne bei solchen Bildern auf das Ergebnis auswirkt. Das schöne ist, dass man gutes Licht völlig kostenlos bekommen kann, man muss nur Zeit haben und einen „guten Tag“ abwarten können.
Zum Abschluss habe ich hier noch eine Schwarz-Weiß Variante, bei der ich einen dichten Rotfilter simuliert habe. (Image -> Adjustments -> Black & White -> Preset: Red Filter)
Um es besser vergleichen zu können habe ich für Euch hier nochmals das Ausgangsbild eingefügt.
Ich hoffe, dieses kleine Tutorial zeigt Euch worauf es ankommt.
Suche den besten Standort und mache dir Gedanken zum Bildaufbau
Verwende eine Stativ und den Selbstauslöser und den niedrigsten ISO-Wert
Schalte den VR aus
Stelle den Polarisationsfilter optimal ein
Achte darauf, dass die Kamera korrekt ausgerichtet ist
Versuche den perfekten Moment zu erwischen
Beherzigt man all das, so sind die folgenden Arbeitsschritte in Photoshop nicht mehr wirklich wichtig. Denn das was wichtig ist hat man ja schon, ein gutes Ausgangsbild! Aus einem guten Foto kann man mit Photoshop ein perfekte Bild zaubern. Aus einem verwackelten, blassen Foto mit langweiligem Motiv wird man niemals mit Photoshop ein Bild machen könen das Beachtung findet und von seinen „Betrachtern“ länger als eine Sekunde beäugt werden wird.
Vor einigen Tagen habe ich Euch hier ein Video vorgestellt, das ich von einer etwa 20 Jahre alten Videokassette unter Verwendung des preiswerten MAGIX USB-Video-Wandlers aus dem Produkt „Retten sie ihre Videokassetten“ erstellt habe. In diesem Artikel „Retten sie ihre Videokassetten“ habe ich ja schon angekündigt, dass ich im Vergleich gern die Qualität aus dem TERRATEC G3 USB-Video-Wandler sehen würde. Dieses Ding habe ich mir dann auch bestellt. Die Wahl fiel auf den TERRATEC G3, weil es dafür einen Treiber gibt mit dem man diesen Grabber auch unter OS-X auf dem Mac benutzen kann. Das vergleichbare TERRATEC Produkt OHNE Unterstützung für OS-X ist satte 50,- Euro preiswerter! Meinen TERRATEC G3 habe ich allerdings recht preiswert über einen amazon-Partner kaufen können, also wer der Schmerz nicht so wirklich groß. In der letzten Woche ist das Ding endlich angekommen. Schwer überrascht war ich als ich die Produktverpackung sah. Dieses Produkt wird in einer hochwertigen Blechdose geliefert! Die Qualität des Grabbers und der Kabel ist vorbildlich. Alle Kabel haben vergoldete Anschlüsse, es liegt sogar ein hochwertiges SCART-Kabel bei. Letztlich kostet dieses Paket regulär aber auch fast das doppelte wie das durchaus vergleichbare MAGIX Produkt. Witzig ist auch, dass man bei der Verwendung des G3-Grabbers unter Windows mit einer TERRATEC-Edition der MAGIX-Software arbeiten muss!! (Video-Easy)
Hier einige Bilder des TERRATEC G3 Video-Wandlers.
Im Vergleich dazu sieht der MAGIX Video-Wandler wirklich billig aus…
Die Installation der Software auf dem Mac ist völlig problemlos. Der G3 wird sofort erkannt und es kann gleich losgehen. Was sofort auffällt ist, dass die Software für die Video-Aufzeichnung auf dem Mac äußerst primitiv ist. Es gibt einen roten Aufnahmeknopf, ein winziges Vorschaufenster und einen Stop-Knopf – das ist alles! Hat man ein Video unter OS-X aufgezeichnet, so kann man es nicht direkt nachbearbeiten, das geht nur unter Windows. Statt dessen kann man es nach iMovie exportieren. Das funktioniert gut, ist aber äußerst zeitraubend. Denn die Software zeichnet das Video im MPEG2-Format auf. Auf dem Mac kann man sich drehen und wenden wie man will, iMovie oder auch das nagelneue Final-Cut-Pro-X können keine MPEG2 Dateien öffnen. Soviel zum Thema „OS-X ist das fortschrittlichste Betriebssystem der Welt“…
Damit iMovie das bereits fertig auf der Festplatte gespeicherte Video öffnen kann, muss es in eine MOV-Datei konvertiert werden (Quick-Time-Movie). Hat man ein 90 Minuten langes Video aufgezeichnet, so müssen etwa 4GB in weitere 4GB umgewandelt werden. Das dauert nicht nur lange, es kostet auch viel Festplattenplatz!
Das ist wirklich blöd und aus meiner Sicht ist es noch viel ärgerlicher, dass kein direkter Export nach Final-Cut-Pro-X möglich ist. Nun habe ich für viel Geld diese Software gekauft und sie wird nicht direkt unterstützt…
Will man mit iMovie eine Videodatei bearbeiten, so muss sie also nach der Aufzeichnung zunächst zeitaufwändig konvertiert werden. Dabei erstellt iMovie eine reduzierte Variante die für die Vorschau usw. verwendet wird. Das ist beim Schnitt ganz praktisch, denn man kann Teile des Videos dann schneller oder langsamer ablaufen lassen, Zoomen, Beschneiden und vieles mehr. Selbst ein etwas älteres „kleines“ MacBook oder ein MacMini können diese Videos dann noch vernünftig darstellen. Verwendet man MAGIX Video Deluxe MX auf einem schnellen Windows 7 PC, so kann man nach dem sehr schnellen Import zwar fast sofort mit dem Video-Schnitt loslegen, aber sobald es etwas komplexer wird ist keine flüssige Vorschau mehr möglich. Pest oder Cholera, man muss sich auch hier entscheiden…
Als ich versucht habe die neue Version des Robben Ford Videos nach iMovie zu exportieren ist dies abgebrochen weil die nagelneue 256GB SSD schon wieder voll war! Es macht oft alles keinen Spaß! Also habe ich nicht lange gefackelt, meinen Mac neu gestartet und das Video in der Windows 7 Partition auf meinem Mac geöffnet und dort mit MAGIX Video Deluxe MX geschnitten, den Ausschnitt korrigiert und es bei YouTube hochgeladen. Das würde mit iMovie auch nicht klappen, denn die iMovie Programmierer haben noch nichts davon gehört, dass man bereits seit vielen Monaten bei YouTube Videos zeigen kann die länger als 15 Minuten sind!!
Wenn also die Software schon nicht wirklich besser ist, wie ist es dann mit der Qualität des Endergebnisses? Für mich ist der wesentliche Kritikpunkt beim billigen MAGIX Wandler, dass er nur einen Composite-Video-Eingang hat. Das Argument für den G3 war, dass dieser Grabber über einen ordentlichen SCART-Eingang verfügt. Darüber kann der Video-Rekorder die RGB-Komponenten separat übertragen und sie werden im Grabber von separaten Analog-Digital-Wandlern verarbeitet. Damit sollte die Qualität sichtbar besser sein.
Bevor ich den G3 bestellt habe, gab es noch den Versuch mit einem speziellen Kabel das einen SCART- und einen S-VIDEO Stecker hat. Damit wäre eine separate Übertragung der Luminanz- und Chrominanz-Signale (Helligkeit & Farbe) möglich. Im Endergebnis könnte man damit ein besseres Ergebnis als mit dem Composite-Eingang erzielen. Leider musste ich aber feststellen, dass mit diesem Kabel nur in Schwarz-Weiß aufgezeichnet werden konnte. In der Wikipedia habe ich dann auch die Antwort gefunden. Mein Video-Recorder kann gar kein S-VIDEO Signal ausgeben, auch nicht mit diesem Kabel! Daher geht entweder nur Composite-Video oder eben ein Grabber der einen SCART-Anschluß hat! Den Rest der Geschichte kennt Ihr nun ja schon fast…
Hier ist jetzt der direkte Vergleich zwischen der ersten Version und der neuen TERRATEC G3 Variante:
Abschließend sieht das Ergebnis beim TERRATEC G3 für meinen Geschmack sichtbar besser aus. Es ist nicht unbedingt schärfer und detailreicher, aber die Farben und die Abstufung der Helligkeit ist hier einfach besser getroffen. Dies wird besonders gut sichtbar wenn man bis zum ersten Moderations-Abschnitt bei 2:35 Minuten springt. In der alten Version ist das Gesicht von Robben Ford hier total überstrahlt. Der TERRATEC G3 hat dies wirklich viel besser hinbekommen. Beim G3 treten überstrahlte Spitzlicher viel seltener auf als beim billigen MAGIX Wandler. Dadurch mag das Ergebnis auf den ersten Blick etwas flauer und blass erscheinen, letztlich ist es aber deutlich harmonischer aus.
Das Buch zum großen Fotoabenteuer
Das Buch zu meiner großen Fotoreise gibt es bei amazon.de als Kindle eBook zu kaufen. Auf 573 Seiten gibt es die vollständige Geschichte sowie 200 farbige Fotos, einige Karten und viele Tipps zum Thema Fotografie.