‘Wetenschappers moeten voorzichtig zijn met resultaten op basis van AI’
Antropoloog Rodrigo Ochigame bestudeert hoe wetenschapsbeoefening verandert door AI. Van sterrenkunde tot wiskunde tot klimaatmodellen: het gebruik van AI roept de vraag op wat precies telt als wetenschappelijk bewijs, vindt de onderzoeker.
In 2019 kreeg de wereld de allereerste NASA-foto van een zwart gat onder ogen: een omineuze schaduw, omgeven door een vuurrode riem. In 2023 publiceerde een team van wetenschappers met behulp van AI een ‘scherper’ beeld op basis van dezelfde gegevens. Omdat de gegevens van zwarte gaten - verzameld door acht sterrenwachten uit de hele wereld - extreem veel ruis en beperkingen bevatten, moeten wetenschappers algoritmen en AI-modellen ontwikkelen om een afbeelding te kunnen produceren. Deze hulpmiddelen bevatten veel keuzes en aannames. De ‘scherpere’ foto had er heel anders kunnen uitzien, afhankelijk van de gekozen modellen en algoritmen.
Antropoloog Rodrigo Ochigame bestudeert de invloed van het gebruik van AI op diverse wetenschapsgebieden, waaronder het produceren van beelden van zwarte gaten. In het geval van de foto interviewde Ochigame diverse betrokken onderzoekers, en maakte zelf alternatieve beelden van het zwarte gat, gebaseerd op dezelfde basisgegevens. Door te experimenteren met algoritmen en computermodellen onderzocht Ochigame hoe de foto eruit had kunnen zien als de wetenschappers andere keuzes hadden gemaakt. Het punt dat antropoloog hiermee wil maken: in wetenschappelijke velden die sterk gebruik maken van AI, kun je vraagtekens zetten bij de resultaten die op deze manier worden geproduceerd en gepresenteerd.
Naast het maken van beelden van zwarte gaten bestudeert Ochigame ook andere onderzoeksvelden die gebruik maken van AI. Bijvoorbeeld wiskundig onderzoek waarbij AI wordt gebruikt om mathematische stellingen te bewijzen. Of het gebruik van voorspellende AI bij het maken van modellen die de invloed van klimaatverandering weergeven in verschillende ecosystemen in de wereld. Al deze gevallen hebben één ding gemeen: de wetenschappers kunnen geen conventioneel model bouwen dat is getraind op basis van eerdere, feitelijke gegevens. ‘Ik ben geïnteresseerd in onderzoek waar er geen betrouwbare gronddata beschikbaar is. Er bestaan immers geen eerdere geverifieerde foto’s van zwarte gaten. En de klimaatmodellen moeten rekening houden met extreme fenomenen die nog nooit zijn voorgekomen.’
Je kijkt mee over de schouders van wetenschappers terwijl ze AI gebruiken in hun onderzoek, en stelt daar kritische vragen over. Hoe vinden ze dat?
‘Mensen kunnen terughoudend zijn om een antropoloog toe te laten, maar gelukkig word ik warm ontvangen door degenen die ik bestudeer. Deels komt dat omdat ik zowel observant als deelnemer ben. Ik probeer een bijdrage te leveren aan hun gesprekken en bouw soms zelf ook computermodellen. Bovendien stellen ze zelf de vragen die ik ook stel. En wetenschappers zijn erg benieuwd naar mijn antropologische inzichten in hun veld.’
Welke beperkingen zie je bij het gebruik van AI in de wetenschap?
‘Het is erg belangrijk om resultaten, verkregen met behulp van AI-modellen, niet als definitief bewijs te beschouwen. Zo is het scherpere beeld van het zwarte gat gemaakt met een machine learning-model dat werd getraind op basis van beelden uit simulaties. Vervolgens werd het model toegepast op ‘echte’ observaties. Dat vind ik een interessant fenomeen: steeds meer wetenschappers gebruiken simulaties als trainingsdata, alsof deze gegevens basisfeiten zijn. Ik ben niet tegen deze manier van wetenschapsbeoefening, maar resultaten moeten met de nodige terughoudendheid worden behandeld.’
Stelt de wetenschap op dit moment te veel vertrouwen in AI?
‘Ik vind van wel. Er zijn veel gevallen waarbij klakkeloos gebruik wordt gemaakt van AI. Ik kom vaak wetenschappelijke beweringen tegen die absoluut niet worden ondersteund door de gebruikte data het gebruikte algoritme. Onderzoekers hebben vaak de neiging om hun resultaten te sterk neer te zetten. Het aantal gevallen van volstrekt onverantwoord gebruik van AI is zó groot dat ik juist ervoor kies om gevallen te onderzoeken waarbij de scheidslijn veel vager is.’
Eerder deed je onderzoek naar culturele invloeden bij de ontwikkeling van modellen, die nu aan de basis staan van onder meer de computerwetenschappen…
‘Dat was mijn promotieonderzoek, waarin ik vraagtekens zette bij het universele karakter van de standaardmodellen voor programmeren en AI. Zoals wiskundige logica, de Turing-machine, speltheorie of neurale netwerken. Ik ontdekte dat in de ontstaansperiode van die modellen er veel discussie was over basale uitgangspunten. Sommige wetenschappers ontwikkelden zelfs alternatieve modellen. Zo bedachten Braziliaanse wiskundigen systemen voor logica waarin deels ruimte was voor tegenstrijdigheden. Indiase wetenschappers bedachten non-binaire berekeningsmodellen. Nu is het niet mijn doel om ervoor te zorgen dat mensen deze onorthodoxe methoden alsnog gaan gebruiken. Maar soms raken ze geïnspireerd door de denkwijzen die ik door mijn onderzoek ontdekte, en verwerken ze die in hun eigen werk. Daar word ik erg gelukkig van.’
Rodrigo Ochigame’s alternatieve beelden van het zwarte gat zijn nu te zien in museum Boerhaave als onderdeel van de tentoonstelling ‘Dichter bij het zwarte gat’.
Headerbeeld: eerste afbeelding van het M87 zwarte gat door de Event Horizon Telescope, 2019 (links); afbeelding van het M87 zwarte gat gebaseerd op het PRIMO machine-learning algoritme door Lia Medeiros et al., 2023 (midden); simulatie van de groei van een zwart gat door Hotaka Shiokawa (rechts).
Tekst: Jan Joost Aten