Het beantwoorden van de grootste vragen van AI vereist een interdisciplinaire aanpak

Het beantwoorden van de grootste vragen van AI vereist een interdisciplinaire aanpak

Toen Elon Musk vorige maand het team achter zijn nieuwe kunstmatige-intelligentiebedrijf xAI aankondigde, wiens missie het naar verluidt is om “de ware aard van het universum te begrijpen”, onderstreepte dit de kritiekheid van het beantwoorden van existentiële zorgen over de belofte en het gevaar van AI.

Of het nieuw gevormde bedrijf nu daadwerkelijk zijn gedrag kan afstemmen om de potentiële risico’s van de technologie te verminderen, of dat het uitsluitend gericht is op het verkrijgen van een voorsprong op OpenAI, de oprichting ervan roept belangrijke vragen op over hoe bedrijven daadwerkelijk moeten reageren op zorgen over AI. Specifiek:

  1. Wie stelt intern, vooral bij de grootste fundamentele modelbedrijven, eigenlijk vragen over zowel de korte- als langetermijneffecten van de technologie die ze bouwen?
  2. Benaderen ze de problemen met de juiste lens en expertise?
  3. Brengen ze op adequate wijze technologische overwegingen in evenwicht met sociale, morele en epistemologische kwesties?

Op de universiteit studeerde ik computerwetenschappen en filosofie, wat destijds een ongerijmde combinatie leek. In een klaslokaal werd ik omringd door mensen die diep nadachten over ethiek (“Wat is goed, wat is er mis?”), ontologie (“Wat is dat eigenlijk?”) en epistemologie (“Wat weten we eigenlijk?”). In een ander geval werd ik omringd door mensen die aan algoritmen, code en wiskunde deden.

Twintig jaar later, als gevolg van een vooruitziende blik, is de combinatie niet zo onharmonisch in de context van hoe bedrijven over AI moeten nadenken. De inzet van de impact van AI is existentieel, en bedrijven moeten een authentieke verbintenis aangaan die deze inzet waardig is.

Ethische AI ​​vereist een diep begrip van wat er is, wat we willen, wat we denken te weten en hoe intelligentie zich ontvouwt.

Dit betekent dat hun leiderschapsteams moeten worden bemand met belanghebbenden die voldoende zijn toegerust om de gevolgen van de technologie die ze bouwen te doorzien – wat de natuurlijke expertise te boven gaat van ingenieurs die code schrijven en API’s verharden.

See also  Genomica-pionier Lee Hood bundelt de krachten met het Buck Institute om veroudering en ziekten te bestuderen

AI is niet uitsluitend een computerwetenschappelijke uitdaging, een neurowetenschappelijke uitdaging of een optimalisatie-uitdaging. Het is een menselijke uitdaging. Om dit aan te pakken moeten we een blijvende versie van een ‘AI-ontmoeting van de geesten’ omarmen, die qua reikwijdte vergelijkbaar is met de interdisciplinaire bijeenkomst van Oppenheimer in de woestijn van New Mexico (waar ik ben geboren) begin jaren veertig.

De botsing van het menselijke verlangen met de onbedoelde gevolgen van AI resulteert in wat onderzoekers het ‘uitlijningsprobleem’ noemen, vakkundig beschreven in Brian Christian’s boek ‘The Alignment Problem’. In wezen hebben machines een manier om onze meest uitgebreide instructies verkeerd te interpreteren, en wij, als hun zogenaamde meesters, hebben er een slechte staat van dienst in om ze volledig te laten begrijpen wat we denken dat we willen dat ze doen.

Het nettoresultaat: algoritmen kunnen vooroordelen en desinformatie bevorderen en daardoor het weefsel van onze samenleving aantasten. In een meer dystopisch scenario op langere termijn kunnen ze de “verraderlijke wending” nemen en overvallen de algoritmen waaraan we te veel controle over de werking van onze beschaving hebben afgestaan ​​ons allemaal.

In tegenstelling tot de uitdaging van Oppenheimer, die wetenschappelijk was, vereist ethische AI ​​een diep begrip van wat er is, wat we willen, wat we denken te weten en hoe intelligentie zich ontvouwt. Dit is een onderneming die zeker analytisch van aard is, maar niet strikt wetenschappelijk van aard. Het vereist een integratieve aanpak, geworteld in kritisch denken uit zowel de geesteswetenschappen als de wetenschappen.

Denkers uit verschillende vakgebieden moeten nu meer dan ooit nauw samenwerken. Het dreamteam voor een bedrijf dat dit echt goed wil doen, zou er ongeveer zo uitzien:

  • Chief AI- en data-ethicus: Deze persoon zou korte- en langetermijnproblemen met data en AI aanpakken, inclusief maar niet beperkt tot de formulering en adoptie van ethische dataprincipes, de ontwikkeling van referentiearchitecturen voor ethisch datagebruik, de rechten van burgers met betrekking tot de manier waarop hun data worden geconsumeerd en gebruikt door AI, en protocollen voor het vormgeven en adequaat controleren van AI-gedrag. Dit moet los staan ​​van de Chief Technology Officer, wiens rol grotendeels bestaat uit het uitvoeren van een technologieplan in plaats van het aanpakken van de gevolgen ervan. Het is een senior rol binnen het personeel van de CEO die de communicatiekloof tussen interne besluitvormers en toezichthouders overbrugt. Je kunt een data-ethicus niet scheiden van een hoofd-AI-ethicus: data zijn de voorwaarde en de brandstof voor AI; AI brengt zelf nieuwe data voort.
  • Hoofdfilosoof-architect: Deze rol zou de existentiële zorgen op de langere termijn aanpakken, met een hoofdfocus op het ‘afstemmingsprobleem’: hoe kunnen waarborgen, beleid, achterdeurtjes en ‘kill-switches’ worden gedefinieerd voor AI om deze zo goed mogelijk af te stemmen op menselijke behoeften en doelstellingen .
  • Hoofd neurowetenschapper: Deze persoon zou zich bezighouden met kritische vragen over het gevoel en hoe intelligentie zich ontvouwt binnen AI-modellen, welke modellen van menselijke cognitie het meest relevant en nuttig zijn voor de ontwikkeling van AI, en wat AI ons kan leren over menselijke cognitie.
See also  Wat is het tegenovergestelde van een lean startup?

Om de output van het dreamteam om te zetten in verantwoorde, effectieve technologie, hebben we van cruciaal belang technologen nodig die abstracte concepten en vragen van “De Drie” kunnen vertalen naar werkende software. Zoals bij alle werkende technologiegroepen hangt dit af van de productleider/ontwerper die het hele plaatje overziet.

Een nieuw soort inventieve productleiders in het ‘tijdperk van AI’ moet zich comfortabel bewegen over nieuwe lagen van de technologiestapel, die modelinfrastructuur voor AI omvat, evenals nieuwe diensten voor zaken als verfijning en eigen modelontwikkeling. Ze moeten inventief genoeg zijn om ‘Human in the Loop’-workflows te bedenken en te ontwerpen om beveiligingen, achterdeurtjes en ‘kill-switches’ te implementeren, zoals voorgeschreven door de hoofdfilosoof-architect. Ze moeten over het vermogen van een renaissance-ingenieur beschikken om het beleid en de protocollen van de belangrijkste AI en de data-ethicus te vertalen naar werkende systemen. Ze moeten de inspanningen van de hoofdneurowetenschapper waarderen om tussen machines en geesten te bewegen en adequaat bevindingen te onderscheiden die het potentieel hebben om aanleiding te geven tot slimmere, meer verantwoordelijke AI.

Laten we OpenAI eens bekijken als een vroeg voorbeeld van een goed ontwikkeld, uiterst invloedrijk, fundamenteel modelbedrijf dat worstelt met deze personeelsuitdaging: ze hebben een hoofdwetenschapper (die ook hun medeoprichter is), een hoofd van het mondiale beleid en een algemene directeur. raad.

Zonder de drie posities die ik hierboven schets in leidinggevende leiderschapsposities blijven de grootste vragen rond de gevolgen van hun technologie echter onopgelost. Als Sam Altman zich zorgen maakt over het op een uitgebreide, doordachte manier benaderen van de behandeling en coördinatie van superintelligentie, is het opbouwen van een holistische line-up een goed beginpunt.

See also  iPhone 15 blijft hangen op het Apple-logo tijdens de installatie? Hier leest u hoe u dit kunt oplossen

We moeten een meer verantwoordelijke toekomst opbouwen waarin bedrijven betrouwbare beheerders zijn van de gegevens van mensen en waar AI-gedreven innovatie synoniem is met goed. In het verleden hielden juridische teams zich bezig met kwesties als privacy, maar de slimste onder hen beseffen dat ze de problemen van ethisch datagebruik in het tijdperk van AI niet alleen kunnen oplossen.

Het brengen van ruimdenkende, verschillende perspectieven naar de tafel waar de beslissingen worden genomen, is de enige manier om ethische data en AI te realiseren in dienst van de menselijke bloei – terwijl de machines op hun plaats blijven.

Source link: https://techcrunch.com/2023/09/15/answering-ais-biggest-questions-requires-an-interdisciplinary-approach/

Leave a Reply