PSW Blog

PSW Blog

PSW - Der Blog

Dieser Blog soll als Informations- und Einsichtsquelle dienen, um euch mit neuen infos zu versorgen und euch Einblicke in meine Arbeit bieten zu können.

Out of the dark.....

Grafik/3DPosted by PSW Fri, June 26, 2015 13:18:12



Im heutigen Blogeintrag kriechen wir ein wenig durch enge Gänge und wühlen im Dreck....aber natürlich nicht sprichwörtlich, sondern digital.
Denn heute möchte ich mich einmal mit "Underground" bzw Nischenprogrammen befassen, welche fern der großen Monopolhersteller bzw Programme laufen, sondern eher kleinere und teils auch unbekanntere Vertreter ihrer Art sind, sich aber durch einige ihrer Funktionen als überaus hilfreich erweisen.

Ich werde hierbei keine "Grundsoftware" bzw die großen 3D Editing Programme (Maya, 3ds Max, Cinema 4D, Blender usw) aufzählen und habe mich zudem ausschliesslich auf Open Source Projekte bezogen, daher werden hier also keine Programme wie Crazy Bump und dergleichen auftauchen.

Links zu den entsprechenden Helferlein, findet ihr jeweils unter den entsprechenden Vorstellungen.


Gimp

Den Anfang macht direkt ein etwas bekannteres Projekt, zumindest für Bildbearbeiter.
Sicherlich hat das Programm mittlerweile einen gewissen Bekanntheitsstatus erlangt, jedoch als Image Editing Software.

Ich möchte hier allerdings auf vereinzeltre Funktionen eingehen, welchen vielen (auch 3D´lern) gar nicht bekannt sind und das Programm, sogar (für 3D Designer) besser macht, als Adobe´s großen Konkurenten Photoshop.

Zum einen findet sich standardmässig unter dem Filter Tab, der sogenannte "make seamless" Filter.
Und hierbei handelt es sich nicht um etwas identisches wie der Offset Filter aus Photoshop, bei dem man dennoch die KAnten anschliessend wegstempeln muss, um seine nahtlose Textur zu erhalten.

Nein, dieser generiert automatisch aus einem Foto eine nahtlose Textur und man braucht nur noch nachträglich zu korrigieren.
Zudem ist bei Gimp auch ein Normal Map Plugin, bereits serienmässig eingebaut, welches man im Falle von Photoshop, erst mühselig von Nvidia als Zusatzplugin beziehen muss.

Gimp


Insane Bump

Ein wenig übergreifend kommen wir zu Insane Bump, welches als Plugin, für oben genanntes Gimp, daher kommt.
Vergleichbar ist Insane Bump mit Crazy Bump und stellt einen Shader Map generator dar, in dem man also Fotos einladen kann und sich Normal, Ambient Occlusion, Spec Maps etc automatisch generieren lassen kan.

Insane Bump


Meshlab

Meshlab stellt zwar auch ein 3D Editor dar, wird jedoch meist eher aufgrund einiger extrem hilfreicher Features eingesetzt.

Das nützlichste davon ist die "Quadric Edge Collapse Decimation" Funktion, bei der es sich um eine Art Simplikations Tool handelt.

Eingesetzt wird dies z.B. zur Retopologie, um die Anzahl der Polygone in seinem mesh drastisch zu reduzieren und dieses somit für Games und Animationen vorzubereiten.

Zwar ist hier vorsicht bei komplexeren und geradlinigen Modellen geboten, da die Topologie, teils sehr darunter leidet, jedoch bietet es eine schnelle Methode Assets und organische Formen zu retopologieren.

Besonders für Dinge, wie Steine, Felshänge, Bäume, Höhlen und dergleichen, also starre Elemente in der Scene, welche nicht animiert, bewegt oder zu geradlinig daher kommen.

Hierzu speichert man in seiner 3D Software einfach das High Poly Mesh als obj datei ab,
hierbei sollte man beachten daß der Origin Point in der Mitte des Meshes liegt, undläd diese Datei in meshlab ein.

Im Filters Tab unter "Remeshing, Simplification and Reconstruction" findet man nun den begehrten "Quadric Edge Collapse Decimation" Filter, woraufhin sich, nach einem Klick, ein Fenster öffnet.

Hier kann man nun einfach die gewünschte Anzahl an Polygonen angeben und drückt auf "Apply".
Und schon hat unser Mesh die angegebene Anzahl an Polygonen.

Meshlab





Xnormal

Xnormal ist ein Programm, welches zum baken bzw rendern von diversen Shadermaps dient.

Sicherlich kann man dies auch in jedem der großen 3D Editoren machen, jedoch bietet einem Xnormal noch einige spezielle Maps mehr und liefert zudem eine automatisierte Exportfunktion mit, welche sich auch geschwindigkeits-technisch mehr als sehen lassen kann.
Hierzu speichert man jeweils das Low und High Poly Mesh als obj Dateien ab und zieht es, nach dem Start von Xnormal in die dafür vorgesehenen Slots.

High Poly, gehört also in den High Definition Mesh Tab und das Low Poly Objekt in den Low Definition Mesh Tab.



Unter dem Menüpunklt Baking Options, lassen sich nun die Einstellungen machen.
Zunächst können wir dort den Speicherort bestimmen und unsere Texturgröße festlegen.

Unten, links fidnen wir eine Auflistung der, zur Verfügung stehenden Shader Maps.
Neben, eher normaleren, Shader Maps, wie die Normal und Ambient Occlusion Maps, sind dort auch nützliche zusätzliche Maps zu finden, wie z.B. die Curvature Map.

Diese Curvature Map wird als rot/grün Map gerendert und stellt die abstehenden Kanten, bzw deren Konturen, dar.



Durch die beiden Chanels (rot und grün) können wir diese in einem Bildbearbeitungsprogramm (Gimp/Photoshop) sepperat ansteuern, nicht gebrauchte löschen, entsättigen und mit unseren anderen Texturen verrechnen.

Auf diese Art und Weise werden abstehende Kanten (also Highlights) erzeugt, welches uns das manuelle einmalen dieser abstehenden Highlights erspart und uns eine enorme Zeitersparnis beschert.

Xnormal



Ich hoffe ich konnte euch damit einen kleinen Einblick geben, bzw, euch auch einige nützliche Tips geben. Nutzt ihr evtl sogar eins, oder mehrere der hier aufgeführten Tools? Vielleicht habt ihr noch andere Programme, die etwas in der Versenkung hängen, euch aber eine enorme Beschleunigung eures Workflows bereichern?









  • Comments(0)//blog.psw-fotografie.de/#post40

Details

Grafik/3DPosted by PSW Thu, May 21, 2015 19:45:53

Eine der am häufigsten gestellten Fragen überhaupt, welcher wir heute einmal ein wenig auf den Grund gehen möchten.
Bei diesem Artikel spielt es keine Rolle, ob ihr Bildbearbeiter, komponierender Fotograf, Grafiker oder CG Artist seit.
Hierbei geht es um die ganz essentielle Frage; "Wie erhalte ich Detailreichtum?"

Die meisten Fehler werden direkt zu Beginn gemacht, indem man sich eine Vorlage aus dem Netz sucht und sagt; "Sowas möchte ich auch machen, schau mal, all die Details!"


First things, first!

In dem Moment, wo man zu diesem frühen Planungsstadium des eigenen Artworks bereits Gedanken an Details, wie das Ausschmücken der Scene, verschwendet, bleiben ganz wichtige Dinge, wie Formen und Bildkompositionen, zwangsweise auf der Strecke.


Formen, hä?

Richtig, jede komplexe bzw Detailreiche Form setzt sich aus Grundformen (Kreise, Rechtecke, Quadrate, Zylinder etc) zusammen.
besonders am Anfang ist es enorm wichtig sich auf das Grundliegende zu konzentrieren, was nunmal lediglich Formen sind.
Erst im zweiten Stadium beginen wir, diese Formen auszubauen, zu etwas komplexeren Formen, während wir erst im dritten Stadium unseres Schaffens, weitere details hinzu fügen.


1,2,3 Details?


Wir unterscheiden also, in sogenannte Shapes (grobe Formen), Medium Details (mittelgroße Details) und sogenannte Fine Details (feine Details), welche letztlich für die Kompletierung unserer Scene bzw unseres Bildes sorgen.

In der Grafik unten habe ich das ganze, zur Veranschaulichung, für euch einmal farblich unterlegt.
Grün = Shapes, Rot = Medium Details und Blau = Fine Details.




In der Praxis


Für eine weniger theoretischere Umsetzung habe ich euch einmal ein kleines Beispiel vorbereitet.
überlegen wir uns einmal einen SciFi Corridor zu gestalten, wie würden wir also vorgehen, um Details zu erhalten, jedoch nichts anderes zu vernachlässigen?

Zu Beginn, sollten wir natürlich grob konzeptionieren, um ein Gefühl dafür zu erhalten, wie unser Bild aufgebaut sein soll.
Hier setzen wir also die groben Formen fest, die Perspektive und Fluchten.



Als zweiteres schauen wir; was wir bauen könnten um die Scene später auszubauen.



Auch hier gehen wir nach dem altbekannten Schema vor.
Zuerst eine Grundform, welche wir dann erweitern bzw abändern zu einer interressanteren Form und fügen dann zuerst Medium Details und zuletzt Fine Details hinzu, um das ganze interressanter zu gestalten.



Wenn wir alle Dinge konzeptioniert haben, fange wir an unsere Scene aufzubauen.
Auch hierbei nutzen wir die oben genannte Arbeitsweise, wir bauen also zuerst die Grundform unseres Corridors (Viereckig, Sechseckig etc) und bauen diese Form anschliessend aus.



Als weiteren Schritt fügen wir weitere Mediumdetails zu unserem Grundkorridor hinzu, wozu auch unsere vorab konzeptionierten Assets, wie Säulen, Bordcomputer, Konsolen etc zählen.



Als Fine details fügen wir anschliessend noch mehr Variationen an Bodenplatten hinzu, hängen Kabel auf und legen welche auf den Boden, fügen kleine Schrauben und Werkzeug hinzu etc.



Abschliessend...

...wäre also zu sagen, daß man anfangs ausschliesslich in groben zweidimensionalen Formen denken sollte, wärend man mit fortlaufendem Stadium immer und immer mehr und feinere Details hinzufügt.


ich hoffe ich konnte einige Fragen mit diesem Artikel klären und dem ein oder andere damit eine gelungene Aufklärung bzw Hilfestellung bieten.



  • Comments(0)//blog.psw-fotografie.de/#post36

Isometric Game Art

Grafik/3DPosted by PSW Mon, March 30, 2015 06:54:12


Bereits in den 80er Jahren hat man die Isometrik als Stilgeber für Computer- und Heimkonsolenspiele verwendet.
So hat man bereits auf Konsolen und Computern, wie dem Apple 2, dem Commodore, oder auch dem Amiga versucht, mit Hilfe der isometrischen Perspektive, einen dreidimensionalen Raum zu simulieren.
Spiele wie "Darkmere", "Space Crusade", oder auch das spätere "Landstalker" begeisterten durch Bewegungsmöglichkeiten in alle drei Achsen.

Erste Umsetzungen mit frühen dreidimensionaleren Engines (sogenannte 2.5D Engines) gingen mit beispielsweise "Dungeon Keeper" (1997) hervor, in dem der Spieler sogar die Möglichkeit erhielt, die isometrische Spielewelt, nicht nur um 90 Grad, sondern stufenlos zu Drehen und Zoomen.

Mit der einführung der ersten 3D Engines und auch dem sich daraus entwickelnden Boom, rund um das Trendthema 3D gerieten isometrische Spiele ein wenig in den Hintergrund und Games, welche auf solche Ansichten zurückgriffen, wie beispielsweise "Baldur´s Gate" oder auch "Diablo 2" wurden zur Seltenheit.

Erst mit der immer präsenter werdenden Indiescene im Game Development Bereich wurde die Isometrik wieder aus der Versenkung geholt.

In Zeiten, wo Casual und Handy Games einer der größten Marktanteile darstellen und Indie-Developer, wie Pilze aus dem Boden schießen, finden wir erneut isometrische Titel, wie Sand am Meer.

In diesem Eintrag befassen wir uns einmal mit dieser sehr speziellen Betrachtungsweise, auf die Spielewelt.


3D oder 2.5D ???

Die Isometrik ist keine dreidimensionale Betrachtungsweise.

Zwar erhalten wir durch sie, die Möglichkeit in alle drei Achsen zu bewegen, jedoch findet, letzten Endes alles lediglich auf einem zweidimensionalen Blatt Papier statt.

Daher wird die isometrische Ansicht auch oft verwendet, um Dreidimensionalität vorzutäuschen.

Vom Grundprinzip her, wurde der Kamera einfach die Perspektive in den Raum entzogen, was bedeutet, daß Objekte, welche sich direkt vorne in der Scene befinden, genau so groß sind, wie Dinge, welche sich weiter hinten im dargestellten Raum befinden.

Spiele, wie "Diablo 3", "Starcraft 2", "Torchlight" oder auch "Dungeon Keeper 2" stellen also, trotz ihrer Top-Down Ansicht keine Vertreter der isometrischen Ansicht dar.

Also ist die Isometrik ähnlich einzukategorisieren, wie die althergebrachte "Oblique Ansicht" (bekannt aus z.B. Anleitungen von Schränken oder Baukästen), nur mit dem Unterschied, daß wir alles um 45 Grad auf der Z Achse gedreht haben.




Warum die Drehung?

Ja, warum verwenden wir dann nicht einfach, die selbe Perspektive, wie beispielsweise in einem Anleitungsheft?

Die Antwort auf die Frage ist denkbar einfach; Einfach um es noch mehr nach echtem 3D aussehen zu lassen und die Illusion ein wenig "perfekter" zu machen.

Durch die Drehung erhalten wir also die Möglichkeit dem Auge des Betrachters eine dreidimensionale Spielwelt vorzutäuschen, welche eigentlich nur aus zweidimensionalen Planes besteht.


Warum dann nicht 3D?

Nun, die Antwort damals hätte geheißen; "Es gab noch kein 3D"
Heute würde sie heißen; "Um Leistung einzusparen"
Denn besonders bei Casual und Mobile Games verhält es sich ähnlich, wie mit mobilen Webseiten.
Je weniger Leistung man verbraucht, desto flüssiger und Akku- bzw leistungsschonender läuft unser Titel.
Zudem besitzen isometrische Perspektiven immer einen ganz eigenen Scharm.


Isometrik in Photoshop

Ein Spiel bzw einen Level, komplett in Photoshop erstellen? Das geht?
Ja, sicherlich funktioniert das.



Wichtig hierbei ist zu beachten, daß stets unsere Höhenkanten, alle gleich hoch sind.
Wenn wir also einen Block beispielsweise erstellen wollen, so müssen wir unbedingt darauf achten, daß unsere Außenkanten, alle gleich lang sind, entsprechend ihrer jeweiligen Pendants.
Das heißt; Alle Kanten welche nach oben zeigen, müssen gleich lang sein,
ebenso, alle Kanten, welche auf der Horizontalen liegen.
Zusätzlich wäre zu beachten, daß auch die Winkel dieser Kanten den selben Winkel zum Horizont, gleich groß sind.



Hierbei bietret es sich an Gebrauch von Photoshops Hilfslinien zu machen.
Zum Erstellen von isometrischen Assets in Photoshop (oder Flash / Illustrator) ist natürlich ein Höchstmaß an perspektivischem Denken erforderlich.


Isometrik in Blender

Ja, auch in einem 3D Programm, wie Blender können wir isometrische Scenen erschaffen.


Dies unterscheidet sich vom Modellingaspekt her, nur unwesentlich von anderen Scenen.
Der Trick liegt hierbei lediglich in den Kameraeinstellungen.



Wenn wir also nunmal von einer Scene ausgehen, welche wir in isometrischer Ansicht darstellen wollen, so sollten wir als erstes einmal, mittels dem Kürzel (Strg + R) bei selektierter Kamera, die Rotation, dieser zurücksetzen.
Jetzt, wo unsere Kamera in ihrer Ausgangsposition in Richtung der negativen Z Achse zeigt, können wir als nächstes die X Ausrichtung definieren.
Hierbei empfiehlt es sich die Kamera auf der X Achse um zwischen 45 und 80 Grad zu rotieren. Je Höher der Wert, desto flacher würde der Ansichtspunkt liegen.
Wenn wir diese, nach unseren Wünschen eingestellt haben, knüpfen wir uns die Höhenachse (Z) vor.
Diese rotieren wir um 45 Grad.
Bei weiteren Rotationen stets in 90 Grad Schritten weiter rotieren.

Jedoch stellt dies lediglich die Position, nicht jedoch die isometrische Betrachtungsweise ein.
Die Tiefe können wir der Kamera in den Kameraeinstellungen entziehen, in der wir im Properties-panel, die Kamera von "perspective" auf "orthographic" umstellen.

Nun werden wir feststellen, daß sich einige Einstellungen verändert wurden, so wurde uns unter anderem, die Einstellungsmöglichkeit der Kamerabrennweite, durch einen Scale Regler ersetzt.



Da wir in einer zweidimensionalen Kamera, keine Brennweite haben, da diese ausschliesslich bei räumlicher Tiefe verwendet wird, können wir nun diesen neuerschienenen "orthographic scale" Regler als Zoom Funktion nutzen.

Für eure eigenen Isometrikscenen in Photoshop findet ihr unten ein Gridtemplate zum freien Download, welches euch als Vorlage dienen kann.

Ich wünsche euch viel Spaß beim Ausprobieren.




  • Comments(0)//blog.psw-fotografie.de/#post34

Lichtstimmung in Blender

Grafik/3DPosted by PSW Mon, March 09, 2015 03:17:07



Wie auch in der Fotografie, so spielt auch im 3D Bereich, Licht und Schatten eine ganz entscheidende Rolle.

Durch gesetzte Lichter und geworfene Schatten erhalten wir Plastizität, Atmosphäre und nicht zuletzt, natürlich auch Realismus.

Wenn eine 3D Scene nun also von allen Seiten gleichmäßig ausgeleuchtet wäre, würden wir ein flaches, langweiliges Bild erhalten.

Also ist auch Schatten ein ganz wichtiges Element einer gelungenen Komposition.

Allerdings bietet uns Licht als CG Artists noch weit mehr Optionen, als nur das einfache Setzen von Lichtern (Lampen oder Meshlights).

Wie alle Objekte, basiert auch das Leuchten der Lampen in Blender´s Cycles Engine auf Materialshadern.



Durch einen "Emmission" Shader haben wir die Möglichkeit, beispielsweise, eine Glühbirne zu modellieren und diese Leuchten zu lassen (wie in der Realität).

Auch Lampen funktionieren ähnlich, nur mit dem Unterschied, daß die Leuchtkraft von einem einzelnen Punkt ausgeht und nicht wie bei "modellierten Lampen" von einer Fläche aus.



Dadurch haben wir also auch die Möglichkeit, über das Node Setup von Cycles, auf den Shader unserer Lampen Einfluss zu nehmen.
Standardmässig sind diese mit einem einfachen weißen "Emmission" Shader ausgestattet.
Jetzt könnten wir die Lichtfarbe ändern, indem wir die Farbe einfach auf eine andere stellen.
Das wirkt am besten mit zwei Lampen und gegensetzlichen Farbtemperaturen (z.B. blau und gelb, orange und cyan).


Jedoch haben wir natürlich auch Zugriff auf alle anderen Nodes, welche uns Blender bietet und können so unsere ganz eigenen Lampen erstellen.

So könnten wir beispielsweise einmal ein Kirchenfenster fotografieren, mit einer Bildbearbeitungssoftware ein wenig wechzeichnen und als Textur an den "Color Input" unseren "Emmision" Shaders stzen.

Wenn wir nun mit einer "Texture Coordinate" Node unser Mapping Koordinaten, mit der dem "Normal" Output, berechnen lassen, werden wir sehen daß unsere Fenstertextur als Farbwerte unserer Lampe verwendet wurde.

Um das ganze noch ein wenig realistischer aussehen zu lassen, können wir nun zwischen unseren "Material Output" und unsere "Emmission" Node noch eine weitere "Emmision" Node, mittels "Mix Shader" hineinmischen.


Dadurch haben wir die Möglichkeit aus ganz einfachen Scenen, wie an dem Beispiel mit dem Goldball gezeigt, sehr stimmige Momente herraus zu kitzeln.

Das ganze ist in etwa vergleichbar, als wenn, wir in der Fotografie, eine bunte Farbfolie, vor einen unerer Blitze bzw Lampen halten würden.

Viel Spaß beim ausprobieren.



  • Comments(0)//blog.psw-fotografie.de/#post30

UV Project in Blender

Grafik/3DPosted by PSW Mon, March 09, 2015 03:10:04

In diesem Eintrag möchte ich euch einmal einen sehr nützlichen, allerdings gleichermaßen auch

sehr unterbewerteten Modifier in Blender vorstellen.

Besonders beim Erbauen von großen Scenen, mit Mauerformationen, oder auch für GAmedesign leistet er nahezu unerlässliche Dienste und steigert die Geschwindigkeit des eigenen Worksflow, nahezu um das Dreifache.

Die Rede ist vom "UV Project Modifier", welcher es uns ermöglicht nahtlos Texturen entsprechend der Ausrichtung von sogenannten "Projectors" auf unser Model zu mappen.

Der bisherige Prozess mühselig eine UV Map zu erstellen, indem wir unser Model unwrappen entfällt dadurch also.
Zudem lässt sich unser Model nach belieben umbauen, während die UV-Map einfach um die neu gemodelten Bereiche erweitert wird.


Mit Standard UV Map.

Mittels UV Project berechnete UV Map

Diese Methode ist natürlich nichts für spezielle Assets, wo wir komplexere Texturen benötigen, jedoch erleichtert sie uns eine Menge Arbeit, wenn es darum geht "Bases für unsere Level oder Scenen zu bauen.

Natürlich lassen sich auch unterschiedliche Texturen für Wände und Böden bzw Decken definieren, was das ganze besonders zum Bauen von Gangsystemen, tempelartigen Bauwerken oder Stadtfundamente, interressant werden lässt.

Gehen wir einmal von einem Startmodul (Cube) aus, so benötigen wir insgesammt 6 "Projectors".

Hierfür verwenden wir 6 "Empty Objects" (Plain Axis), welche wir an unseren Cube parenten.


Dadurch sind unsere Empties mit dem Cube verbunden und folgen diesem, wenn wir ihn in der Scene verschieben.

Der "UV Project Modifier" wird nun in unserem Cube angelegt und in den Punkten "Projectors" werden unsere Empties, einen nach dem anderen eingetragen.


Wichtig hierbei ist zu wissen, daß die Mapping Achse, stehts, die negative Z Achse (lokal) des entsprechenden Empties ist.

Also muss bei jedem Empty in unserem Cube die lokale, positive Z Achse auf eine der Aussenseiten des Cubes zeigen.





Ebenfalls wäre es wichtig zu wissen, daß der Cube generell eine angelegte UV Map benötigt.

Diese ist nicht weiter wichtig, sondern wird ausschliesslich für das korrekte Mapping verwendet und kann auch einfach mit einem "Smart UV Project" erzeugt werden.

Nun legen wir unsere Textur(en) an und weisen diesen als Mapping Koordinaten unsere erzeugte UV Map zu.
Und, siehe da, unsere Texturen werden entsprechend der negativen Z Achse unserer Empties auf unseren Cube gemapped.

Der Vorteil hierbei ist, daß diese Mapping Methode auch fortlaufend funktioniert.

Wir haben damit also umgangen, daß wir ein Model erstellen, die Texturen darauf mappen und es danach nicht weiter verändern können, da sich sonst die Texturen verziehen würden.

Mit der "UV Project Modifier Methode" wird die UV Map also einfach weiter berechnet, wenn wir nach dem Mapping unser Objekt noch einmal verändern.



Um das ganze noch weiter praxisbasiert halten zu können, empfehle ich es, diesen "Grund-Cube" einmal anzulegen und sepperat wegzusichern.
Bei weiteren Projekten müssen so, nur noch die Texturen ausgetauscht werden und man kann starten.

Ich wünsche euch viel Spaß beim blendern :-)





  • Comments(0)//blog.psw-fotografie.de/#post29

Bildrauschen in Cycles

Grafik/3DPosted by PSW Tue, March 03, 2015 17:23:09

Wie wir wissen ist Blender´s Cycles Engine extrem anfällig für hässliches Bildrauschen.
Dieses Problem haben wir mit dem internen Renderer zwar nicht, jedoch würden wir niemals einen solch hohen Grad an Realismus erhalten, wie mit Cycles.

Was können wir also tun um Bildrauschen zu vermeiden ohne die Renderzeiten bis in utopische Höhen ansteigen zu lassen?
Meist geht man einfach hin stellt in den Renderoptionen, die Samples hoch und die Sache ist gut.
Dadurch allerdings erhält man natürlich extrem lange Renderzeiten, was nicht unbedingt in unserem Sinn ist.

Doch schauen wir uns erst einmal an, wie Cycles arbeitet, bzw Cycles die Samples verteilt bzw berechnet.

Meistens stellen wir einfach unter den Presets auf Final und stellen uns die Samples hoch.
Wenn wir das tun, geht Cycles hin und verteilt die Samples bzw die Einzelbounces auf die Samples automatisch, was meist dazu führt, daß Samples verteilt werden, die gar nicht benötigt werden.
Zwar werden diese überflüssigen Samples verteilt und nicht gebraucht, in gleichem Maße jedoch, werden diese auch berechnet und ziehen somit unsere renderzeit nach unten.

Was können wir also dagegen tun?
Wenn man nun in den Renderoptionen, von Pathtracing, einmal auf die Brenched Path Option umschaltet, werden wir sehen, daß man weit mehr Optionen erhalten.
Diese Optionen ermöglichen uns die Bounces auf die einzelnen Samples manuell zu steuern bzw zu verteilen.



Hierbei wird wie folgt gerechnet; Einzebounces x AA Samples.

Wenn wir also 2 Bounces auf unsere Glossy Materialien geben und haben 4 Anti Aliasing Samples eingestellt, erhalten wir im Finalrender, insgesammt 8 Samples auf die Glossy Materialien.
Gleiches gilt auch für alle übrigen Materialien.
So berechnet Blender in den automatischen Einstellungen beispielsweise standardmässig 2-3 Bounces auf das Volumen der Scene.
Dies bringt uns allerdings nur etwas, wenn wir auch mit volumetrischem Licht arbeiten.

Zum Vergleich einmal:

Bild oben wurde mit 900 Samples im Pathtracing Modus rausgerendert.
Die Renderzeit lag hier bei 22:53.42 Sekunden.

Während das Bild oben mit den optimierten Rendersettings herausgerendert wurde. Die Renderzeit bei dem zweiten Bild betrug jedoch nur 8:57.10 Sekunden.




Genau so, wie wir die Samples auf unsere Mterialien verteilen, können wir diese auch auf die Berechnung der Lichtbrechungen, unter Light Paths, verteilen.
Ebenso können alle Lampen (Lampen und auch Meshlights) einzeln gesampelt werden unter den Lampenoptionen.
Wir schauen uns also unsere Scene an und achten darauf, was benötigt wird und legen somit unsere Samples fest.

Somit lassen sich "Fireflies" (oder Hotspots) geschickt ausmanövrieren, Bildrauschen vermeiden und die Renderzeiten in Cycles optimieren.



  • Comments(0)//blog.psw-fotografie.de/#post27