Zijn Gen AI-voordelen het risico waard? Analyse van technische experts

Zijn Gen AI-voordelen het risico waard?  Analyse van technische experts

De zakelijke en contentproductiewereld omarmde al snel tools zoals ChatGPT en Dalle-E van OpenAI. Maar wat is generatieve AI precies, hoe werkt het en waarom is het zo’n hot en controversieel onderwerp?

Eenvoudig beschreven is gen-AI een tak van kunstmatige intelligentie die computeralgoritmen gebruikt om uitvoer te produceren die menselijk materiaal nabootst, waaronder tekst, foto’s, afbeeldingen, muziek, computercode en andere soorten media.

Met gen AI worden algoritmes gemaakt om kennis op te doen met behulp van trainingsdata die illustraties bevatten van het beoogde resultaat. Gen-AI-modellen kunnen nieuw materiaal creëren met kenmerken die overeenkomen met de oorspronkelijke invoergegevens door de patronen en structuren in de trainingsgegevens te onderzoeken. Gen AI kan op deze manier informatie produceren die echt en menselijk lijkt.

Hoe Gen AI wordt geïmplementeerd

Machine learning-technieken op basis van neurale netwerken, de innerlijke werking van het menselijk brein, vormen de basis van gen-AI. Tijdens de training worden grote hoeveelheden gegevens ingevoerd in de algoritmen van het model, die dienen als de leerbasis van het model. Deze methodologie kan alle inhoud bevatten die relevant is voor het werk, inclusief tekst, code, afbeeldingen en andere.

Na het verzamelen van de trainingsgegevens, onderzoekt het AI-model de correlaties en patronen in de gegevens om de fundamentele principes te begrijpen die de inhoud sturen. Terwijl het leert, past het AI-model voortdurend zijn instellingen aan, waardoor het beter in staat is om door mensen gegenereerd materiaal na te bootsen. De output van het AI-model wordt complexer en overtuigender naarmate het meer materiaal produceert.


Met verschillende technologieën die de aandacht van het publiek trekken en opschudding veroorzaken onder makers van inhoud, heeft gen-AI de afgelopen jaren aanzienlijke vooruitgang geboekt. Samen met andere grote IT-bedrijven hebben Google, Microsoft, Amazon en anderen hun eigen gen-AI-tools opgesteld.

Beschouw ChatGPT en Dalle-E 2 als voorbeelden van gen-AI-tools die kunnen vertrouwen op een invoerprompt om het te sturen naar het creëren van een gewenst resultaat, afhankelijk van de toepassing.

Hieronder volgen enkele van de meest opmerkelijke voorbeelden van gen-AI-tools:

  • ChatGPT: ChatGPT, gemaakt door OpenAI, is een AI-taalmodel dat tekst kan produceren die lijkt op menselijke spraak als reactie op signalen.
  • Dalle-E 2: Een tweede gen-AI-model van OpenAI dat op tekst gebaseerde aanwijzingen gebruikt om visuele inhoud te genereren.
  • Google Bard: Google Bard, gelanceerd als concurrent van ChatGPT, is een gen-AI-chatbot die is getraind op het grote taalmodel van PaLM.
  • GitHub-copiloot: GitHub Copilot, ontwikkeld door GitHub en OpenAI, is een door AI aangedreven coderingstool die codeaanvullingen voorstelt voor gebruikers van programmeeromgevingen zoals Visual Studio en JetBrains.
  • halverwege reis: Midjourney is gemaakt door een onafhankelijk onderzoekslaboratorium in San Francisco en lijkt op Dalle-E 2. Het leest taalaanwijzingen en context om ongelooflijk fotorealistische visuele informatie te produceren.
See also  Beste Google Pixel-telefoon om te kopen in 2023

Voorbeelden van Gen AI in gebruik

Hoewel gen-AI nog in de kinderschoenen staat, heeft het zich al gevestigd in verschillende toepassingen en sectoren.

Gen AI kan bijvoorbeeld tekst, afbeeldingen en zelfs muziek maken tijdens het productieproces van de inhoud, waardoor marketeers, journalisten en artiesten worden geholpen bij hun creatieve processen. Door kunstmatige intelligentie gestuurde chatbots en virtuele assistenten kunnen meer geïndividualiseerde hulp bieden, responstijden versnellen en de werkdruk van klantenservicemedewerkers verlichten.

Gen AI wordt ook gebruikt in het volgende:

  • Medisch onderzoek: Gen AI wordt in de geneeskunde gebruikt om de ontwikkeling van nieuwe medicijnen te versnellen en onderzoekskosten te verlagen.
  • Marketing: Adverteerders gebruiken gen-AI om gerichte campagnes te maken en het materiaal aan te passen aan de interesses van klanten.
  • Omgeving: Klimaatwetenschappers gebruiken gen-AI-modellen om weerpatronen te voorspellen en de gevolgen van klimaatverandering te simuleren.
  • Financiën: Financiële experts gebruiken gen-AI om marktpatronen te analyseren en ontwikkelingen op de aandelenmarkt te voorspellen.
  • Onderwijs: Sommige instructeurs gebruiken gen-AI-modellen om leermateriaal en evaluaties te maken die zijn afgestemd op de leervoorkeuren van elke leerling.

Beperkingen en risico’s van Gen AI

Gen AI roept verschillende problemen op die we moeten aanpakken. Een belangrijk punt van zorg is het potentieel om valse, schadelijke of gevoelige informatie te verspreiden die ernstige schade kan toebrengen aan personen en bedrijven – en mogelijk de nationale veiligheid in gevaar kan brengen.

Beleidsmakers hebben kennis genomen van deze bedreigingen. De Europese Unie stelde in april nieuwe copyrightregels voor gen AI voor, waarbij bedrijven verplicht worden alle auteursrechtelijk beschermde materialen die zijn gebruikt om deze technologieën te maken, te declareren.


Deze wetten zijn bedoeld om misbruik van of inbreuk op intellectueel eigendom tegen te gaan en tegelijkertijd ethische praktijken en transparantie bij de ontwikkeling van AI te bevorderen. Bovendien bieden ze een zekere mate van bescherming aan makers van inhoud, door hun werk te beschermen tegen onbedoelde imitatie of replicatie door algemene AI-methodologieën.

De verspreiding van automatisering door middel van generatieve AI kan grote gevolgen hebben voor het personeelsbestand, wat mogelijk kan leiden tot verdringing van banen. Bovendien hebben gen-AI-modellen het potentieel om onbedoeld vooroordelen in de trainingsgegevens te versterken, waardoor ongewenste resultaten worden geproduceerd die negatieve ideeën en vooroordelen ondersteunen. Dit fenomeen is vaak een verborgen gevolg dat door veel gebruikers onopgemerkt blijft.

See also  Sony's Xperia 5 V-telefoon wordt geleverd met een vlaggenschipsensor van 52 megapixels

Sinds het debuut hebben ChatGPT, Bing AI en Google Bard allemaal kritiek genereerd vanwege hun verkeerde of schadelijke uitvoer. Deze zorgen moeten worden weggenomen naarmate gen-AI zich ontwikkelt, vooral gezien de uitdaging om de bronnen die worden gebruikt om AI-modellen te trainen zorgvuldig te onderzoeken.

Apathie bij sommige AI-bedrijven is eng

Sommige technologiebedrijven tonen om verschillende redenen onverschilligheid ten opzichte van de bedreigingen van gen-AI.

Ten eerste kunnen ze kortetermijnwinsten en concurrentievoordeel voorrang geven boven ethische zorgen op de lange termijn.

Ten tweede is het mogelijk dat ze zich niet bewust zijn van of begrip hebben voor de potentiële risico’s die samenhangen met gen-AI.

Ten derde kunnen bepaalde bedrijven de regelgeving van de overheid als onvoldoende of vertraagd beschouwen, waardoor ze de bedreigingen over het hoofd zien.

Ten slotte kan een te optimistische kijk op de mogelijkheden van AI de potentiële gevaren bagatelliseren, zonder rekening te houden met de noodzaak om de risico’s van gen-AI aan te pakken en te beperken.

Zoals ik eerder heb geschreven, ben ik getuige geweest van een bijna schokkend afwijzende houding met senior leiderschap bij verschillende technologiebedrijven over de verkeerde informatierisico’s met AI, met name met diepe nepafbeeldingen en (vooral) video’s.

Bovendien zijn er meldingen geweest waarin AI de stemmen van dierbaren heeft nagebootst om geld af te persen. Veel bedrijven die de siliciumingrediënten leveren, lijken tevreden met het plaatsen van de AI-labelinglast bij het apparaat of de app-provider, wetende dat deze door AI gegenereerde inhoudsopenbaarmakingen tot een minimum zullen worden beperkt of genegeerd.

Enkele van deze bedrijven hebben aangegeven bezorgd te zijn over deze risico’s, maar hebben de kwestie aan de kaak gesteld door te beweren dat er “interne commissies” zijn die nog nadenken over hun precieze beleidsstandpunten. Dat heeft veel van deze bedrijven er echter niet van weerhouden om hun siliciumoplossingen op de markt te brengen zonder expliciet beleid om deep fakes te helpen opsporen.

7 AI-leiders gaan akkoord met vrijwillige normen

Aan de positieve kant zei het Witte Huis vorige week dat zeven belangrijke actoren op het gebied van kunstmatige intelligentie hebben ingestemd met een reeks vrijwillige normen voor verantwoord en open onderzoek.


Terwijl hij vertegenwoordigers van Amazon, Anthropic, Google, Inflection, Meta, Microsoft en OpenAI verwelkomde, sprak president Biden over de verantwoordelijkheid die deze bedrijven hebben om te profiteren van het enorme potentieel van AI, terwijl ze er alles aan doen om de aanzienlijke gevaren te verminderen.

See also  Voedingsmiddelen die je gelukkig maken, volgens de wetenschap

De zeven bedrijven beloofden de beveiliging van hun AI-systemen intern en extern te testen voordat ze openbaar worden gemaakt. Ze zullen informatie delen, prioriteit geven aan beveiligingsinvesteringen en tools creëren om mensen te helpen door AI gegenereerde inhoud te herkennen. Ze streven er ook naar plannen te ontwikkelen die de meest urgente problemen van de samenleving kunnen aanpakken.

Hoewel dit een stap in de goede richting is, waren de meest prominente wereldwijde siliciumbedrijven opvallend afwezig op deze lijst.

Gedachten afsluiten

Een veelzijdige aanpak is essentieel om mensen te beschermen tegen de gevaren van nepafbeeldingen en -video’s:

  • Technologische vooruitgang moet gericht zijn op het ontwikkelen van robuuste detectietools die geavanceerde manipulaties kunnen identificeren.
  • Wijdverbreide bewustmakingscampagnes moeten mensen informeren over het bestaan ​​en de risico’s van deepfakes.
  • Samenwerking tussen technologiebedrijven, overheden en onderzoekers is essentieel bij het vaststellen van normen en voorschriften voor verantwoord AI-gebruik.
  • Het bevorderen van mediageletterdheid en kritische denkvaardigheden kan individuen in staat stellen onderscheid te maken tussen authentieke en verzonnen inhoud.

Door deze inspanningen te combineren, kunnen we ernaar streven de samenleving te beschermen tegen de schadelijke gevolgen van deepfakes.

Ten slotte zou een stap om het vertrouwen van het publiek te vergroten vereisen dat alle siliciumbedrijven de nodige digitale watermerktechnologie creëren en aanbieden, zodat consumenten een smartphone-app kunnen gebruiken om een ​​afbeelding of video te scannen om te detecteren of deze door AI is gegenereerd. Amerikaanse siliciumbedrijven moeten een stap verder gaan en een leidende rol op zich nemen en dit niet van zich afschudden als een last voor de ontwikkelaar van het apparaat of de app.

Conventioneel watermerken is onvoldoende, omdat het gemakkelijk kan worden verwijderd of weggesneden. Hoewel niet onfeilbaar, a digitaal Een watermerkbenadering zou mensen met een redelijk niveau van vertrouwen kunnen waarschuwen dat er bijvoorbeeld een kans van 80% is dat een afbeelding met AI is gemaakt. Deze stap zou een belangrijke stap in de goede richting zijn.

Helaas zullen de eisen van het publiek voor dit soort bescherming met gezond verstand, hetzij door de overheid bevolen of zelfgereguleerd, terzijde worden geschoven totdat er iets flagrants gebeurt als gevolg van gen-AI, zoals individuen die fysiek gewond raken of gedood worden. Ik hoop dat ik het mis heb, maar ik vermoed dat dit het geval zal zijn, gezien de concurrerende dynamiek en “goudkoorts”-mentaliteit in het spel.

Source link: https://www.technewsworld.com/story/are-gen-ai-benefits-worth-the-risk-178484.html?rss=1

Leave a Reply