Graduiertenprogramm ARTILACS
Die HFBK Hamburg ist seit Anfang 2025 Teil des hochschulübergreifenden Graduiertenprogramms Artistic Intelligence in Latent Creative Spaces (ARTILACS). ARTILACSsoll untersuchen, inwiefern eine hybride Kombination aus KI-gestützten, latenten Räumen und traditionellen Wissensräumen der künstlerischen Praxis Chancen für neue Formen von Kreativität und Erkenntnis eröffnet. Neben der HFBK Hamburg (mit Prof. Konrad Renner) sind die Hochschule für Musik und Theater (HfMT), die Hochschule für Angewandte Wissenschaften (HAW) und die Hafen City Universität (HCU) an dem Kolleg beteiligt.
Gefördert von der Landesforschungsförderung der Stadt Hamburg.
Gefördertes Projekt + –
Simone Niquille: „Parametric Truth: Synthetic Training Data and the Slippery Slope of Ground Truth“
Simone C. Niquille untersucht, wie synthetische Trainingsdaten – insbesondere 3D-Modelle in der Computer Vision – das Verständnis von »Wahrheit« in AI-Systemen prägen. Die Forschung analysiert die Verwischung von Realität und Simulation im häuslichen Bildkontext und reflektiert die ästhetischen, politischen und ethischen Dimensionen AI-generierter Bilder. »Parametric Truth« beleuchtet kritisch, wie AI Realität konstruiert anstatt sie abzubilden – ein zentrales Anliegen von ARTILACS. Niquilles Arbeit hinterfragt kulturelle Annahmen in AI-Systemen und entwickelt Instrumente, um Software jenseits funktionaler Nutzung zu analysieren.
Geboren in der Schweiz. Abschluss BFA in Graphic Design an der Rhode Island School of Design und MA in Design am Sandberg Instituut Amsterdam. Seit 2025 PhD-Forscher:in im ARTILACS-Programm an der HFBK Hamburg (Klasse Digitale Grafik). Gründer:in des Studios technoflesh mit Sitz in Amsterdam. Arbeitet als Designer:in und Forscher:in im Spannungsfeld von Computer Vision, digitaler Grafik, Critical Software Studies und spekulativem Design. Lehrtätigkeit an der Design Academy Eindhoven und der Amsterdam Academy of Architecture.
Marco De Mutiis über die Arbeit von Simone C Niquille + –
Die Welten von Simone C Niquille entfalten sich mit einer täuschenden, beinahe kindlichen Unschuld. Ihre Protagonist*innen, scheinbar harmlos, entwaffnen mit einer Niedlichkeit, die unter der Oberfläche etwas Beunruhigenderes verbirgt. Ein naiver Haushaltsreinigungsroboter, der sehen lernt, ein Enten-Hasen-Wesen auf der Suche nach sich selbst und ein autonomer Stuhl, der versucht, sich in einem Wohnraum zu orientieren, gehören zu den Figuren, die Niquilles Umgebungen bevölkern. Durch unbeholfene Bewegungen und kindliche Stimmen hinterfragen diese Charaktere, wie sie die Welt wahrnehmen und interpretieren, und untersuchen zugleich die Strukturen, die ihr Design bestimmen. „Objects in the mirror are closer than they appear. But where do these objects appear?“ fragt eine verwirrte Computer-Generated-Imagery-(CGI-)Version des Enten-Hasen-Wesens – eine Figur, die durch Ludwig Wittgensteins Arbeiten zur Wahrnehmung bekannt wurde. Der Haushaltsroboter ist überrascht von dem, was im Inneren des Hauses auftaucht, und zögert vor einem einfachen Gegenstand, unsicher, ob es sich um eine Vase, eine Schale oder eine Tasse handelt.
Doch langsam beginnt aus dieser Niedlichkeit und zarten Hilflosigkeit Unbehagen hervorzutreten. Während wir in rechnerische Sehweisen hineingezogen werden – die Welt aus der Ich-Perspektive durch maschinelle Augen erleben, die zeitgenössische Systeme steuern – begreifen wir die Konsequenzen eines Zusammenlebens mit Computer Vision und Bildgebungstechnologie. In duckrabbit.tv (2023) verbirgt sich hinter der spielerischen Frage „Am I rabbit or am I duck?“ die Auslöschung ambivalenter Entitäten, liminaler Räume und queerer Identitäten als aus maschineller Perspektive nicht berechenbare Zustände. Da diese Bildsysteme häufig als Ersatz für das Reale fungieren, erlaubt maschinelles Sehen dem Enten-Hasen-Wesen nie, beides zugleich zu sein – nur entweder Ente oder Hase. Genau dieses neue „Reale“ vermag Simone C Niquille sichtbar zu machen, indem sie die Black Boxes öffnet und die unsichtbaren Prozesse der rechnerischen Fotografie, die Politik der Datensätze und digitalen Renderings offenlegt.
Die kindliche Erzählerstimme, die viele der Figuren begleitet, führt uns unmittelbar zurück zum Prozess des Lernens, zum Erlernen einer Ordnung der Dinge und zu der Art und Weise, wie dieser Prozess zeitgenössische Geräte und Seh-Technologien prägt. Wer entscheidet, was ein Gesicht ist, was ein Körper, dass eine Kiste eine Truhe, aber kein Briefkasten ist, oder dass ein Stuhl vier Beine haben muss, statt jedes Objekt zu sein, auf dem man sitzen kann? Wenn ein Reinigungsroboter versucht zu verstehen, was ein Objekt ist, geht es nicht nur um Semantik. Hinter jeder Definition stehen subjektive und sensorische Erfahrungen, kulturelle Kontexte und relationale Bedeutungsbildung. Die verborgenen Prozesse und Arbeitsformen hinter maschinellen Sehsystemen werden sichtbar: das Zusammenstellen riesiger Datensätze mit Millionen annotierter fotorealistischer Bilder und 3D-Scans aus häuslichen Räumen. Diese Daten – von Fotos, die von einer global verteilten „Cloud-Worker“-Belegschaft (wie bei ImageNet) beschriftet werden, bis zu automatisiert erzeugten synthetischen Datensätzen (wie SceneNet RGB-D) – liefern die abstrahierten Referenzen und Rohmaterialien, auf denen maschinelle Lernsysteme ihr Weltverständnis aufbauen.
Diese digitalen Bildgebungstechnologien sind Produkte unterschiedlicher ökonomischer und politischer Kräfte und wurden sowohl in wissenschaftlichen Disziplinen als auch in der Unterhaltungsindustrie entwickelt. Gerade die Überschneidungen dieser Bereiche machen ihre allgegenwärtige Nutzung zugleich gefährlich und untersuchenswert. In Auseinandersetzung mit der Erschießung Trayvon Martins durch George Zimmerman (2012) zeigte Niquille, dass die 3D-animierte Rekonstruktion des Verbrechens dieselbe Motion-Capture-Technologie verwendete wie die Unterhaltungsindustrie, um über den menschlichen Körper hinaus jede fantastische Kreatur darstellen zu können. Ebenso bilden die politischen Implikationen von Datensätzen für Gesichtserkennung und Objekterkennung sowie die ständigen Versuche von Entwickler*innen, die Welt zu kategorisieren, einen zentralen Fokus ihrer Forschung. In Videoarbeiten wie Homeschool (2019) und Sorting Song (2021) führt Niquille an die Grenzen der Kategorisierung und zeigt die Unmöglichkeit, objektive Linien zwischen Definitionen zu ziehen. Wir geraten in diese ambivalenten Räume, in denen Reibungen zwischen Wirklichkeitsmodellen und Wirklichkeit selbst entstehen. Hier erleben wir die Fehler und Ausfälle der rechnerischen Augen, denen gesellschaftliche Steuerung anvertraut wird. Und wenn sich die ahnungslosen Kinderstimmen, die raten, was vor ihnen liegt, als Stellvertreter von Systemen erweisen, die mit Regierung, Sicherheit, Überwachung und Recht verbunden sind, verwandelt sich der Spielplatz rasch in einen Albtraum.
In der Videoarbeit Elephant Juice (2020) zeigt Niquille eine Person, die sich nervös vor einem Spiegel auf ein automatisiertes Bewerbungsgespräch vorbereitet und ihre Gesichtsmuskeln trainiert, damit sie für eine Webcam lesbar werden. Indem der Fokus von Objekten auf menschliche Emotionen verschoben wird, untersucht die Arbeit die algorithmische Bewertung von Eigenschaften wie Vertrauenswürdigkeit, Kompatibilität oder Fleiß am Arbeitsplatz. Solche Systeme übersetzen Gesichtsausdrücke in Emotionskategorien, indem sie auf Taxonomien wie das Facial Action Coding System (FACS) zurückgreifen – ein in den 1970er Jahren entwickeltes System, das das menschliche Gesicht in einzelne Bewegungszonen aufteilt und ihnen spezifische Emotionen zuordnet. Auch hier wird die Technologie in Bereichen von Computeranimation über Werbemetrik bis zu polizeilichem Profiling und Personalwesen eingesetzt und verkörpert den anhaltenden Glauben, Emotionen ließen sich quantifizieren und in messbare Zeichen überführen. Elephant Juice stellt diese Annahme infrage, indem es die Fragilität solcher Systeme durch ihre Störungen offenlegt – beginnend mit dem Titel selbst: In Lip-Sync-Technologien wird „I love you“ häufig als „elephant juice“ fehltranskribiert. Diese absurde, zugleich sinnlose und poetische Übersetzung erinnert an die Unmöglichkeit, einen Körper vollständig zu interpretieren und knüpft an Thomas Nagels berühmten Essay What Is It Like To Be a Bat? an, der die Grenzen von Empathie und Wahrnehmung thematisiert. Eine Fledermaus fungiert in Elephant Juice sogar als Erzählerin – eine starke Metapher für KI-Systeme, die ohne Augen sehen und doch stets am Rand des Verstehens tasten.
Nach der Rückkehr aus Niquilles Welten in unsere eigene folgt die beunruhigende Erkenntnis, dass es sich nicht um märchenhafte Geschichten mit niedlichen Robotern und charmanten Kreaturen handelt, sondern um Akteur*innen unserer alltäglichen Realität. Je mehr die Welt durch diese Prozesse „gesehen“ und verstanden wird, desto mehr wird maschinelle Wahrnehmung nicht nur zu einer Sichtweise, sondern zur dominierenden Kraft, die Realität formt. Dies fordert uns auf, gemeinsam mit dem Enten-Hasen-Wesen und Niquilles Figuren zu hinterfragen, welche Räume wir überhaupt bewohnen dürfen – und der Auslöschung von Ambiguität zu widerstehen, Störungen anzunehmen und Fehler als Orte des Widerstands zu begreifen. Zärtlich und niedlich mag dieser Widerstand erscheinen, doch er ist notwendig und unaufhaltsam.
Marco De Mutiis ist Digital Curator am Fotomuseum Winterthur, wo er die Forschung zu algorithmischen und vernetzten Bildern leitet. Er entwickelt und ko-kuratiert digitale Projekte und Online-Plattformen zur Erweiterung der Rolle und des Raums des Museums. Er kuratierte u. a. die Ausstellungen The Lure of the Image (mit Doris Gassert und Alessandra Nappo) sowie How to Win at Photography – Image-making as Play (mit Matteo Bittanti). Außerdem hat er zahlreiche Publikationen verfasst, herausgegeben oder daran mitgewirkt, darunter Screen Images – In-Game Photography, Screenshot, Screencast (mit Winfried Gerling und Sebastian Möring) sowie The Photographer’s Guide to Los Santos (mit Matteo Bittanti).