AI-bedrijven stemmen in met overheidstests op hun technologie om de nationale veiligheidsrisico’s te beoordelen

AI-bedrijven stemmen in met overheidstests op hun technologie om de nationale veiligheidsrisico’s te beoordelen

Blijf op de hoogte met gratis updates

Toonaangevende bedrijven op het gebied van kunstmatige intelligentie zijn overeengekomen dat overheden, waaronder Groot-Brittannië, de VS en Singapore, hun nieuwste modellen voor nationale veiligheid en andere risico’s mogen testen voordat deze aan bedrijven en consumenten worden vrijgegeven.

Bedrijven als OpenAI, Google DeepMind, Anthropic, Amazon, Mistral, Microsoft en Meta hebben donderdag een “mijlpaal” maar niet juridisch bindend document ondertekend, waarmee een tweedaagse AI-veiligheidstop in Groot-Brittannië werd afgesloten.

Het document werd ondertekend door regeringen waartoe ook Australië, Canada, de EU, Frankrijk, Duitsland, Italië, Japan en Zuid-Korea behoorden. China was geen ondertekenaar.

Een internationaal panel van deskundigen zal ook een jaarlijks rapport opstellen over de zich ontwikkelende risico’s van AI, waaronder vooringenomenheid, verkeerde informatie en extremere “existentiële” risico’s zoals hulp bij de ontwikkeling van chemische wapens.

“Ik geloof dat de resultaten van deze top de balans zullen doen doorslaan ten gunste van de mensheid”, aldus Rishi Sunak, de Britse premier en gastheer van het openingsevenement. “We zullen samenwerken om de veiligheid van nieuwe AI-modellen te testen voordat ze worden vrijgegeven.”

“Wij lopen voor op ieder ander land bij het ontwikkelen van de middelen en capaciteiten om mensen te beschermen”, zei Sunak vanuit Bletchley Park, het gebouw waar codebrekers uit de Tweede Wereldoorlog woonden.

De Amerikaanse vice-president Kamala Harris en de voorzitter van de Europese Commissie, Ursula von der Leyen, waren op de top, waar ook andere geallieerde landen bijeenkwamen om gevoelige kwesties van nationale veiligheid te bespreken.

See also  Waarom jongeren naar kantoor moeten

Toen Sunak werd gevraagd of Groot-Brittannië verder moest gaan door bindende regelgeving vast te stellen, zei hij dat het opstellen en vaststellen van wetgeving “tijd kost”.

“Het is van cruciaal belang dat we manieren bedenken om de huidige uitdagingen die AI met zich meebrengt te beoordelen en aan te pakken, evenals de potentiële risico’s van technologie die nog niet bestaat”, zegt Nick Clegg, president van Global Affairs bij Meta.

De Amerikaanse regering heeft maandag een uitvoerend bevel uitgevaardigd in de breedste stap van de regering in de aanpak van AI-bedreigingen. De VS zeiden deze week ook dat ze van plan zijn een eigen instituut op te zetten om toezicht te houden op AI. Groot-Brittannië is een partnerschap aangegaan met het Amerikaanse AI Safety Institute en met Singapore om samen te werken op het gebied van AI-veiligheidstests.

Het AI-risicorapport, waar twintig landen mee hebben ingestemd, zal worden gemodelleerd naar het Intergouvernementeel Panel over Klimaatverandering, waarvan het eerste zal worden voorgezeten door Yoshua Bengio, hoogleraar computerwetenschappen aan de Universiteit van Montreal.

Een AI-taskforce van de Britse overheid heeft een reeks veiligheidstests uitgevoerd op de toonaangevende AI-modellen om eventuele tekortkomingen of risico’s op misbruik te beoordelen, aldus meerdere mensen op een van de sessies van de top. Deze omvatten onder meer hoe de modellen een groter vermogen zouden kunnen bieden om desinformatie te verspreiden, cyberaanvallen te coördineren of biologische en chemische wapenaanvallen te plannen.

Jack Clark, medeoprichter van AI-startup Anthropic, vertelde de Financial Times dat er een externe, onafhankelijke ‘scheidsrechter’ nodig was om de veiligheid van modellen in ontwikkeling te testen.

See also  Barclays/Jes Staley: de gewoonte om risico's te zoeken blijft hangen in de structuur van banken

“We zullen nog steeds onze eigen tests doen,” zei hij, “maar ik wil echt dat er een legitieme testautoriteit van een derde partij komt waar we tests naar kunnen sturen en waar we de resultaten van kunnen horen.”

Schrijf je in voor de FT Future of AI-top op 15-16 november

Video: Kan generatieve AI de hype waarmaken? | FT-technologie

Source link: https://www.ft.com/content/8bfaa500-feee-477b-bea3-84d0ff82a0de

Leave a Reply