Na het potentieel van technologieën voor kunstmatige intelligentie te hebben toegejuicht, besprak de GBA de middelen die haar onder de AVG ter beschikking staan om ervoor te zorgen dat deze worden gecontroleerd. Wanneer AI bijvoorbeeld leidt tot geautomatiseerde beslissingen op basis van een algoritme (ontslagen, niet-toekenning van kredieten, belastingcontroles, enz.), kunnen de Gegevensbeschermingsautoriteiten, indien nodig, het gebrek aan transparantie van de beslissing of de modus operandi bestraffen wanneer deze is gebaseerd op onjuiste correlaties, of bevestigingsvooroordelen/discriminaties, enz.
Bijzondere aandacht moet worden besteed aan het verhoogde risico van gegevensverwerking met evoluerende, zelflerende parameters, bekend als " machine learning ", dat zwaar is bekritiseerd door het Hof van Justitie van de Europese Unie (PNR-arrest van 21 juni 2022; C-817/19).
De GBA bracht via haar Kenniscentrum al een aantal adviezen uit over wetsvoorstellen met betrekking tot de verwerking van dergelijke gegevens door de overheid, ten behoeve van het toezicht op of de toekenning van uitkeringen, enz.
De GBA beveelt in het algemeen aan om de risico's te beoordelen zodat op basis van het voorstel van Europese verordening inzake artificiële intelligentie kan worden overwogen welke waarborgen het best kunnen worden ingevoerd, naast basisaanbevelingen om de kwaliteit van de gegevens die de algoritmen aansturen te waarborgen, correlatiefouten te vermijden en de impact van de technologie op de rechten en vrijheden van de betrokken personen te beoordelen.
Gezichtsherkenning en zogenaamde content-genererende AI (chatbots) roepen nieuwe vragen op, met name over de rechtsgrondslag voor het verzamelen van brongegevens. De GBA ontving klachten tegen chatbots, die momenteel worden onderzocht.