Deze Update weer eens een ouderwetse ChatGPT editie. Met daarin de belangrijkste dingen die ik heb gelezen over AI met betrekking tot crisiscommunicatie en crisismanagement.
Philippe Borremans schrijft in zijn ‘Wag the Dog’ nieuwsbrief over de nieuwe EU-regelgeving die nu van kracht is. AI die gebruikt wordt bij hoog risico sectoren, moet voordat het de markt op gaat aan strenge regels voldoen op het gebied van kwaliteit van data en transparantie. Dat geldt onder andere voor sectoren als kritieke infrastructuur, ziekenhuizen, onderwijs, politie en hulpdiensten. Dus dat dit raakt aan crisismanagement en crisiscommunicatie behoeft geen nadere uitleg.
Een ander belangrijk punt dat ik eruit heb gehaald zijn dat het gevolgen heeft voor het monitoren van social media. En dat bij gebruik van ChatGPT volledige transparantie moet zijn. Content die met AI gemaakt is, moet ook zo gelabeld worden. Dat betekent dus ook dat als je als crisiscommunicatieteam gebruik maakt van GPT voor adviezen of teksten, je dit moet melden bij elke tekst. Maar wat vindt de buitenwereld ervan dat crisiscommunicatie gedaan wordt met een AI? Gelukkig zijn daarover ook een paar berichten deze week.
Philippe haalt een onderzoek aan dat concludeert dat mensen ChatGPT dezelfde geloofwaardigheid toedichten als teksten van mensen. En ook collega Wouter Jong komt met interessante informatie op dit gebied. Wouter gaat elke jaar naar de International Crisis and Risk Communication Conference (ICRCC) in Florida. En inmiddels is het ook vaste prik dat hij elk jaar een overzicht schijft met de take-aways van dit congres. Een mooi en duidelijk overzicht, wat altijd weer nieuwe inzichten en inspiratie geeft. Alle take-aways van Wouter lees je hier.
Wouter schrijft dat Vanderbilt University ChatGPT gebruikte in een statement en dat keurig (open en transparant) erbij noemde, maar vervolgens een storm van kritiek kreeg. Tegelijkertijd blijkt uit onderzoek dat jongvolwassenen minder moeite hebben met teksten die door AI gemaakt zijn. Het meest interessante daarbij vond ik dat Wouter schrijft dat GPT eerder geaccepteerd wordt als de organisatie weinig verantwoordelijkheid heeft aan de crisis. Maar dat als de organisatie een hoge verantwoordelijkheid heeft of er ethische normen spelen men teksten van AI minder accepteert.
Tot slot nog een interessant dilemma: Philippe schrijft zijn nieuwsbrief met behulp van ChatGPT en vermeldt dat er keurig bij. Deze mail is niet geschreven met GPT, maar ik neem wel weer informatie over die deels door GPT geschreven is. Moet ik dat dan ook noemen? Om eerlijk te zijn, weet ik dat niet. Maar bij deze is het dan indirect toch genoemd 😊.
Tom Compaijen
Compaijen C&C – Klaar voor elke crisis