Read
← Back to IdeasErsetzt KI Art Directors in Agenturen?
Dieses Interview wurde von Isadora Lorient geführt und von la Réclame veröffentlicht und anschließend auf Englisch übersetzt.
Seit einiger Zeit weisen Medien, Unternehmen und Forschende darauf hin, dass der Arbeitsmarkt in einigen Jahren durch die Automatisierung und die Verbreitung der künstlichen Intelligenz stark beeinflusst werden wird. Bereits 2017 haben wir in Bezug auf kreative Berufe darüber gesprochen, aber die Anzeigen waren bis dahin eher anekdotisch, sogar etwas lächerlich. Und dann, im Frühjahr/Sommer 2022, fand ein Technologiesprung statt. KI-Programme wie DALL-E (OpenAI), Stable Diffusion und Midjourney tauchten auf und machten generative Kunst fast jedem zugänglich. Diese KIs können mit wenigen Klicks Fotos, Illustrationen und andere Kunstwerke mit verblüffendem Realismus erstellen. Möglich machen das „Prompts“, also Texte, die der KI detailliert vorgeben, welche Art von Bild sie erstellen soll – eine Art Briefing von Mensch an Maschine.
Stellen diese neuen Werkzeuge eine Gefahr für den Kunstsektor dar, wie einige Online-Kunst-Communitys behaupten? Müssen Illustrator:innen und Fotograf:innen um ihre Arbeitsplätze fürchten? Oder um die Art Directors in den Agenturen? Oder ist es im Gegenteil eine Chance für diese Fachleute, die Technologie zu nutzen, um sich von repetitiven handwerklichen Aufgaben zu befreien? David Raichman, Executive Creative Director of Social and Digital Creation bei Ogilvy Paris, Streetfotograf und KI-Künstler, gibt einen Einblick in das Potenzial dieser generativen Kunstlösungen.
KI-generierte Kunst und Visuals scheinen in den letzten Monaten einen großen qualitativen Aufschwung erlebt zu haben. Teilen Sie diese Beobachtung?
David Raichman: Auf jeden Fall. In den letzten Monaten sind künstliche Intelligenzen in der Lage gewesen, Kunstformen wie Fotografie, Illustration, Grafik, Malerei und 3D zu imitieren. Es wird immer schwieriger, zwischen einer von einer KI generierten Arbeit und einer echten künstlerischen Arbeit zu unterscheiden. Als Liebhaber der Streetfotografie hatte ich Spaß daran, mit KI „um die Welt zu reisen“, als ob ich in New York, Jerusalem, Lhasa, Paris, Mumbai usw. Straßenfotos machen würde. Das Ergebnis war ziemlich überraschend. Besonders interessant ist, dass man die gleichen Parameter wie ein echter Fotograf verwenden kann (Aufnahmewinkel, Objektivöffnung, Verschlusszeit, Filmtyp usw.).
Tatsächlich haben wir viel mehr Kontrolle, als manche vielleicht denken! Danach folgt der persönliche Ansatz. Jede:r Künstler:in hat seine eigenen Methoden und Arbeitsweisen. Diejenigen, die mit Illustrationen oder 3D arbeiten wollen, verwenden ihre eigenen Codes, die sich von meinen unterscheiden.
KI war noch nie so zugänglich wie heute: im Internet, auf Discord ... Die Revolution der generativen Kunst scheint auch in ihrer Zugänglichkeit zu liegen.
D.R.: Absolut. Ich konnte bereits Bilder auf meinem Handy auf der Straße erstellen, während ich spazieren war, und sogar während ich auf die U-Bahn gewartet habe. KI kann jederzeit und überall eingesetzt werden. Dank der vollständig quelloffenen KI (wie Stable Diffusion) können die Menschen sie auf ihren eigenen Computern installieren. Das einzige Hindernis ist der Preis. Man kann viel Geld für diese Tools ausgeben – die süchtig machen, das gebe ich zu [Anm. d. Red.: David gibt zu, dass er für seine letzten Bildtests etwa 100 € ausgegeben hat, was für solche Tools immer noch angemessen ist]. Aber ich denke, dass diese Tools in Zukunft viel erschwinglicher sein werden.
Was kann man heute mit Programmen wie DALL-E oder Midjourney machen und was nicht?
D.R.: Erstens gibt es ethische Beschränkungen. Wir können keine Bilder erstellen, die zum Hass schüren könnten, es gibt Wörter, die in den Prompts einiger KIs bereits verboten sind. Die offenste Plattform ist Stable Diffusion. DALL-E ist ziemlich schwer zu zähmen. Als die Königin von England starb, war es zum Beispiel unmöglich, den Namen „Queen Elizabeth II“ einzugeben. In Midjourney war dies jedoch kein Problem. Wir können eine KI auch fragen, auf welchen Stil oder welche:n Künstler:in sich die fotografische Wiedergabe beziehen soll (Guillermo del Toro und HR Giger werden häufig verwendet). Auch das kann aus ethischer Sicht problematisch sein. Aber ich finde es interessant, Stile zu mischen, um einen eigenen Stil zu schaffen.
Zweitens gibt es technische Grenzen. Beispielsweise sind KIs heute nicht in der Lage, Menschen darzustellen, die sich küssen und ineinander verschlungen sind. Das Gleiche gilt für Gesichter, die oft deformiert und nicht kohärent sind. Aus diesem Grund werden Nutzer:innen mehrere KIs verwenden, um diese Darstellungen genauer und realistischer zu gestalten. Das GFP-GAN-Modell wird zum Beispiel häufig verwendet, um die Darstellung von Gesichtern in einem Bild zu verbessern, das von Lösungen wie Midjourney oder DALL-E erzeugt wurde. Man kann der KI auch „Startbilder“ geben und damit ihre Ergebnisse beeinflussen – das ist etwas, was Stable sehr gut kann. Das gibt ihr mehr Freiheit, aber auch Einschränkungen. Heute kann man bei Midjourney, glaube ich, nicht über zwei oder drei Bilder hinausgehen, aber schon bald werden es mehr sein.
Abgesehen davon gibt es keine wirklichen Grenzen für das, was wir heute mit KI machen können. Im Gegenteil, es gibt sehr viele Möglichkeiten.
D.R.: Ja, gerade jetzt! Wir haben gerade eine Kampagne für die Marke La Laitière gestartet. Zum Verständnis: Vor ein paar Tagen hat DALL-E mit seinem neuesten „Outpainting“-Feature gezeigt, was sich außerhalb des Rahmens von Vermeers „Das Mädchen mit der Perlenohrgehänge“ verbirgt. Wir haben dasselbe getan, aber mit der „Dienstmagd mit Milchkrug“. Dieses Gemälde von Vermeer inspirierte uns zu einer sinnbildlichen Werbesaga. Deshalb wollten wir im digitalen Zeitalter und im Web 3.0 die KI nutzen, um diese Idee zu Leben zu erwecken und eine ganze Umgebung rund um das Originalwerk zu schaffen. Eine zeitlose Szene mit der Unterschrift: „C'est si bon de prendre le temps“ („Es ist so gut, sich Zeit zu nehmen.“). Schauen Sie sich gerne die Entwicklung der Zusammenarbeit mit Outpainting bei der Erstellung des Kunstwerks für die Nestle-Marke La Laitière von Ogilvy Paris an.
KIs ernähren sich von visuellen Daten, kurz gesagt, von ihren Inspirationsdatenbanken. Können wir es uns so vorstellen, dass wir der KI in Zukunft die gesamte künstlerische Geschichte einer Marke zur Verfügung stellen können, damit die erzeugten Bilder die visuelle Identität des Unternehmens sowie dessen Werte respektieren?
D.R.: Bis zu einem gewissen Grad ist dies bereits möglich. Wenn man einer KI den Namen einer bekannten Marke gibt, kennt sie die Referenzen und die Geschichte der Marke. Zum Beispiel hat eine KI kürzlich eine großartige Kampagne für Heinz, den Ketchup, gemacht. Die KI ist in der Lage, die visuelle Identität einer Marke zu erfassen, aber es sind die Prompts, die ihr helfen, den Ton anzugeben, sich in die richtige Richtung zu bewegen und zu erklären, was die Nutzer:innen wollen – oder nicht. Diese visuellen KIs sind nicht besonders gut im Schreiben von Worten. Andererseits kann man sehr wohl Alphabete oder eine spezielle Typografie für eine Marke erstellen lassen. Das ist etwas, das in der Zukunft möglich sein könnte. Es gibt aber nicht nur visuelle KI, GPT-3 (OpenAI) ist eine Software für textuelle Intelligenz. Heute ist es möglich, KI-Texte im Markenton schreiben zu lassen. Zur Erinnerung: Eine KI ist weder ein Mensch noch ein Werkzeug, sie ist etwas dazwischen. Wenn sie mit einem Problem konfrontiert wird, wird sie Lösungen vorschlagen – die sicherlich nicht alle gut sind –, aber es geht um die Kraft von Vorschlägen. Das ist das Neue. Wir können nicht von einer KI verlangen, dass sie uns einen Slogan oder ein Logo erstellt. Dahinter steckt ein ganzer menschlicher Prozess.
Sind Prompts also eine neue Art von Briefing?
D.R.: Es ist sowohl eine Form von Briefing als auch fast eine Kunstform. Ich habe schon 200-Wort-Prompts erstellt – was ziemlich umfangreich ist. Aber es ist eine Möglichkeit, sehr präzise zu sein und Einfluss darauf zu nehmen, wie die KI etwas generieren wird. Schon einen Prompt zu entwerfen, ist wie Kunst. Vor einem Monat wurden Marktplätze eingerichtet, auf denen Leute ihre Prompts verkaufen, um schöne Bilder zu bekommen. Es gibt auch eine Plattform (Replicate), die das Reverse Engineering von Prompts praktiziert – im Austausch für ein Bild bietet die KI den Prompt dahinter an. Aber das ist noch nicht alles: Einige KIs helfen sogar bei der Erstellung von Qualitätsprompts. Andere generieren unendlich viele Prompts – wir geben ihr einfach ein Wort vor und sie liefert viele Versionen des ursprünglichen Wortes. Die Eingabeaufforderung ist zum Lebenselixier dieser Kreationen geworden. Es sind die Prompts selbst, mit denen wir erschaffen.
Sind diese KIs eine Bedrohung für Illustrator:innen, Fotograf:innen oder Art Directors?
D.R.: In letzter Zeit haben viele Fotograf:innen alarmierende Videos gepostet, weil sie glauben, dass Roboter ihnen die Arbeit wegnehmen werden. Es ist eine große Innovation, dass wir unser Handwerk neu erfinden, es verbessern und vor allem die Technologie annehmen müssen – anstatt etwas anzuprangern, das ganz außergewöhnlich ist.
Vor allem der Bereich der Illustration muss sich neu erfinden; wir könnten uns vorstellen, dass KI sehr schnell Roughs (visuelle Entwürfe einer Illustration, eines Layouts oder eines Storyboards) erstellen könnte.
Auch Arbeitsplätze in der Fotografie können davon betroffen sein, aber ich glaube nicht, dass KI diese Arbeitsplätze „vernichten“ wird. Es ist eher ein Fortschritt, der ihnen helfen kann, weiterzukommen. Es ist eine andere Art der Kreation, so wie es früher die Computergrafik war.
Für Photoshop gibt es bereits eine Reihe von Plugins (die direkt auf KI zurückgreifen), die dabei helfen, zusätzliche Bildeffekte zu erzielen oder schwierige Aufgaben zu erledigen. KI ist in diesem Bereich nicht neu. Die neuronalen Filter von Photoshop können beispielsweise den Look eines Fotos verändern, die Tiefenschärfe erhöhen usw.
Neu ist hier, dass wir Outpainting einsetzen, Unschärfe erzeugen und einen bestimmten Stil beibehalten können. Wir müssen diese Innovation als eine Möglichkeit sehen, schnellere Prozesse (oder Produktionsweisen) im Dienste von etwas Größerem zu nutzen. Das kann ein echter Beschleuniger in der Produktion sein. So sehe ich das, und nicht als Bedrohung.
Heute reagieren Marken auf Nachrichten oft mit Memes. Ich denke, dass diese Reaktionen in Zukunft mit Bildern erfolgen werden, die von der KI auf eine viel kreativere Weise produziert werden.