In mijn vorige twee updates heb ik het gehad over het herkennen van deepfakes en analyseren van beelden. In deze laatste update van het drieluik over visuele AI, gaat het over het genereren van beelden met ‘generatieve kunstmatige intelligentie’.
Maar eerst begin ik nog met een interessante tip over het bewerken van een video die je als organisatie zelf gemaakt hebt. Alexander Klöpping postte onlangs op X deze video. Hierin zie je dat hij met het programma Heygen een video van zichzelf in meerdere talen vertaalt. Met zijn eigen stem en goede lip sync. Dat betekent dus voor crisiscommunicatie dat de bestuurder voortaan een statement in elke taal kan uitspreken. Alleen maar een keer door Heygen halen, en je spreekt ook toeristen, internationals aan en andere groepen die geen Nederlands spreken. Geen excuses dus meer om niet te vertalen in Engels, Duits, Japans, Italiaans of Chinees.
Dan gaan we naar de echte beeldcreatie. Zelf gebruik ik daarvoor Midjourney, DALL-E en Chat GPT. In de betaalde versie van Chat GPT (Premium) kan je sinds kort ook afbeeldingen maken via DALL-E. Met Midjourney is het wat meer zoeken en ingewikkelder dan via GPT en DALL-E van OpenAI. Het is alleen toegankelijk via een Discord bot en de Discord server, waarvoor je een betaalde account moet hebben. De prompts (opdrachten) plaats je in een groep, dat vond ik zelf wat spannend voor de eerste keer. Ook moet je even weten dat je een prompt voor het maken van afbeeldingen begint met ‘/imagine prompt’. Maar als je de goede prompts weet te geven in Midjourney, kan je wel heel mooie resultaten krijgen. Al heeft het vaak wel een ‘fantasy-achtige’ sfeer, maar dan kan ook aan de prompts liggen.
Hieronder een paar bekende voorbeelden (voor de zekerheid: de paus in dons-jas is dus nep):
Persoonlijk vind ik het nog erg lastig goede prompts te geven om de afbeeldingen te krijgen die ik echt wil. Voor een oefening wilde ik veel politie en ambulances voor een gebouw van een opdrachtgever zetten, maar dat werd toch steeds niet wat ik in mijn hoofd had. En om een of andere reden maakt AI vaak ook typefouten in teksten die in beeld staan. Zo stond bijvoorbeeld op de Spoedeisende Eerste Hulp het woord ‘EMERGENCYYY’.
De beste tip die ik kan geven is om samen met Chat GPT je prompts te maken. Vertel Chat GPT wat je wilt hebben en koppel daarna terug wat er mis is met de afbeelding die Midjourney of DALL-E voor je gemaakt heeft. Met die wisselwerking wordt het in elk geval beter dan de eerste versies die je krijgt.
Wat kan dit betekenen voor crisiscommunicatie? Je kunt afbeeldingen maken bij oefeningen om het voor deelnemers meer realistisch te maken. Ook kan je als ‘woordvoering & redactie’ beeldmateriaal bij je berichten maken. Al blijft het lastig om het te krijgen zoals je wilt. Hieronder de resultaten die ik kreeg toen ik probeerde een visual te maken voor het handelingsperspectief bij een overstroming: ga naar de 1e etage, zorg voor ouderen, zet je radio aan. In eerste instantie kreeg ik deze plaatjes:
Na een paar extra prompts dat ze toch echt omhoog op moesten lopen de trap op en dat ik het meer iconografisch wilde, kwam ik op de volgende uit:
Ook heb ik AI gebruikt om aantekeningen op papier en whiteboards te lezen en om te zetten in digitale tekst. Vervolgens kon ik van die tekst weer prompts maken, zodat ik de tekst kon samenvatten en weer laten visualiseren op een overzichtelijke manier.
Mijn belangrijkste conclusie: je kunt best aardige afbeeldingen maken met AI, maar het blijft lastig. En echt woorden goed in de afbeeldingen krijgen wil de generatieve AI ook niet doen zoals ik zou willen. Daarom is het ook belangrijk om als organisatie voorlopig zelf ook nog goed visuals te kunnen maken. Speciaal daarom organiseer ik in het voorjaar van 2024 samen met trainer visual content Klaas van der Veen een masterclass ‘Beeld bij crisis’. Meer informatie daarover volgt in deze updates.
Tom Compaijen
Compaijen C&C – Klaar voor elke Crisis