Uit een recent onderzoek van de leverancier van bedrijfsbeveiligingssoftware en -services BlackBerry bleek dat 75% van de organisaties wereldwijd een verbod op de werkplek op ChatGPT en andere generatieve AI-applicaties implementeert of overweegt in te voeren. Door TechNewsWorld ondervraagde experts waren echter sceptisch over de effectiviteit van dergelijke verboden.
De studie, gebaseerd op een enquête onder 2.000 IT-besluitvormers in Noord-Amerika, Europa en Azië door OnePoll, toonde ook aan dat 61% van de organisaties die een verbod invoeren of overwegen de maatregelen als langdurig of permanent beschouwen, met risico’s voor de gegevensbeveiliging, privacy en bedrijfsreputatie leiden tot beslissingen om actie te ondernemen.
“Dergelijke verboden zijn in wezen niet afdwingbaar en doen niet veel meer dan risicomanagers het gevoel geven dat de aansprakelijkheid wordt beperkt”, verklaarde John Bambenek, een hoofddreigingsjager bij Netenrich, een IT- en digitale beveiligingsbedrijf in San Jose, Californië.
“Wat de geschiedenis ons laat zien, is dat wanneer er tools beschikbaar zijn die de productiviteit van werknemers of de levenskwaliteit verbeteren, werknemers toch een manier vinden om ze te gebruiken”, vertelde hij aan TechNewsWorld. “Als dat gebruik buiten de controles of zichtbaarheid van de organisatie valt, kunnen beveiligingsteams de gegevens eenvoudigweg niet beschermen.” “Elke werknemer heeft een smartphone, dus een verbod werkt niet noodzakelijkerwijs erg goed”, voegt JP Gownder toe, een vice-president en hoofdanalist bij Forrester Research, een marktonderzoeksbureau met het hoofdkantoor in Cambridge, Massachusetts.
“De reden waarom werknemers deze tools gebruiken, is om productiever te zijn, om hun efficiëntie te versnellen en om antwoorden te vinden op vragen die ze niet gemakkelijk kunnen beantwoorden”, vertelde hij aan TechNewsWorld.
Gownder raadde werkgevers aan om door het bedrijf goedgekeurde tools aan te bieden die voldoen aan de behoeften van hun werknemers. “Door dit te doen, kunnen ze generatieve AI-oplossingen ontwerpen voor het personeel die veilig zijn, die technieken gebruiken om hallucinaties te minimaliseren, en die na gebruik kunnen worden gecontroleerd en getraceerd”, zei hij.
Algemeen verbod op AI gevaarlijk
Greg Sterling, mede-oprichter van Near Media, een nieuws-, commentaar- en analysewebsite, wees erop dat bedrijven met een algemeen verbod op AI dit op eigen risico doen. “Ze lopen het risico de efficiëntie- en productiviteitsvoordelen van generatieve AI mis te lopen”, vertelde hij aan TechNewsWorld.
“Ze zullen AI-tools niet volledig kunnen verbieden”, zei hij. “AI wordt binnen zeer korte tijd onderdeel van vrijwel alle SaaS-tools.”
“In de praktijk kunnen bedrijven het apparaatgebruik van hun werknemers niet volledig controleren”, voegde Sterling eraan toe. “Ze moeten werknemers beter voorlichten over de risico’s die zijn verbonden aan het gebruik van bepaalde apps, in plaats van simpelweg verboden in te voeren.”
Nate MacLeitch, oprichter en CEO van QuickBox, een orderverwerkingsbedrijf met hoofdkantoor in Denver, zette vraagtekens bij de follow-up van bedrijven die landmeters vertelden dat ze van plan waren een verbod op te leggen.
“Ik denk dat 75% hoger is dan het in werkelijkheid zal zijn”, vertelde hij aan TechNewsWorld. “Wat er zal gebeuren, is dat veel van de generatieve AI-dingen zullen worden verweven in applicaties en diensten die organisaties zullen gebruiken, hoewel er zeker ergens controles zullen zijn.”
“Uiteindelijk zal een totaal verbod op een nieuwe, groeiende, geliefde technologie niet volledig werken”, voegde Roger Grimes toe, een defensie-evangelist bij KnowBe4, een aanbieder van veiligheidsbewustzijnstrainingen in Clearwater, Fla.
“Het zou kunnen werken om het lekken van vertrouwelijke informatie te voorkomen, maar de technologie zelf zal gedijen en groeien rond eventuele verboden”, vertelde hij aan TechNewsWorld.
Bans kunnen een concurrentierisico vormen voor een organisatie, betoogde hij. “Zodra concurrenten concurrentievoordelen van AI beginnen te zien, en dat zullen ze ook doen, zullen de verboden moeten worden opgeheven, anders zal de organisatie niet overleven of bloeien”, zei hij.
Onwerkbare aanpak
John Gallagher, vice-president van Viakoo, een leverancier van geautomatiseerde IoT-cyberhygiëne in Mountain View, Californië, beweerde dat een verbod op het gebruik van generatieve AI op de werkplek onwerkbaar is, vooral in dit stadium van de ontwikkeling van de technologie, waarin het gebruik ervan snel verandert.
“Moet een organisatie het gebruik van Bing verbieden omdat de zoekresultaten generatieve AI bevatten?” hij vroeg. “Kunnen werknemers Zoom nog steeds gebruiken, ook al bevatten nieuwe functies generatieve AI, of blijven ze beperkt tot specifieke versies van de app die deze functies niet hebben?”
“Dergelijke verboden zijn in theorie leuk, maar kunnen in de praktijk niet worden gehandhaafd”, vertelde Gallagher aan TechNewsWorld.
Hij beweerde dat verboden een organisatie meer kwaad dan goed kunnen doen. “Controles die niet kunnen worden afgedwongen of strak gedefinieerd, zullen uiteindelijk door werknemers worden genegeerd en toekomstige pogingen om dergelijke controles af te dwingen, in diskrediet brengen”, zei hij. “Losjes gedefinieerde verboden moeten worden vermeden vanwege de reputatieschade die ze kunnen veroorzaken.”
Waarom AI verbieden?
Barbara J. Evans, hoogleraar rechten en techniek aan de Universiteit van Florida, legde uit dat organisaties om verschillende redenen een AI-verbod op de werkplek kunnen opleggen.
“Generatieve AI-softwaretools – althans op dit moment – hebben het potentieel om informatie van lage kwaliteit of onware informatie te verstrekken”, legde ze uit aan TechNewsWorld. “Voor consultants, advocatenkantoren en andere bedrijven die informatiediensten aan hun klanten leveren, kan het verkopen van verkeerde informatie leiden tot rechtszaken en reputatieschade.”
Evans merkte op dat een ander belangrijk punt van zorg de privacy en veiligheid van bedrijfseigen en vertrouwelijke bedrijfsinformatie is. “Bij het stellen van vragen aan een generatieve AI-tool kunnen werknemers bedrijfsgeheimen of vertrouwelijke informatie over hun klanten onthullen”, zei ze.
“Als je het privacybeleid van deze tools leest,” voegde Evans eraan toe, “zou je kunnen ontdekken dat je door de tool te gebruiken ermee instemt dat de toolontwikkelaar alles wat je aan hem onthult kan gebruiken om zijn model verder te verfijnen of voor ander gebruik.”
Ze betoogde dat bedrijven AI ook mogen verbieden als het gaat om werknemersrelaties. “Mensen maken zich zorgen over het feit dat ze worden vervangen door AI, en het verbieden van het gebruik van AI op de werkplek kan een goede manier zijn om het moreel van de werknemers op te krikken en een signaal af te geven dat ‘we je niet willen vervangen door een robot – in ieder geval niet’. deze generatie robots’, legt Evans uit.
AI veilig maken
Organisaties verbieden AI op de werkplek uit een overvloed aan bezorgdheid, maar naast de risico’s moeten ook de voordelen van de technologie worden overwogen, aldus Jennifer Huddleston, een onderzoeker op het gebied van technologiebeleid aan het Cato Institute, een denktank in Washington, DC tank.
“Nieuwe technologieën zoals AI kunnen werknemers helpen hun efficiëntie en productiviteit te verbeteren, maar in sommige gevallen moeten mensen nog steeds de nauwkeurigheid van hun resultaten of output controleren”, vertelde ze aan TechNewsWorld.
“In plaats van een volledig verbod op het gebruik van een technologie, zouden organisaties kunnen overwegen of er andere manieren zijn waarop ze hun specifieke zorgen kunnen aanpakken en tegelijkertijd werknemers in staat stellen de technologie voor nuttige doeleinden te gebruiken”, aldus Huddleston.
Evans voegde eraan toe dat mensen uiteindelijk mogelijk AI moeten gebruiken om hen te helpen AI te reguleren. “Op een gegeven moment zijn wij mensen misschien niet snel genoeg of slim genoeg om de fouten van de AI op te vangen”, zei ze. “Misschien ligt de toekomst in het ontwikkelen van AI-tools die ons kunnen helpen om snel de output van andere AI-tools te controleren op feiten – een AI-peerreviewsysteem dat AI-tools gebruikt om elkaar peer-review te geven.”
“Maar als 10 generatieve AI-tools het er allemaal over eens zijn dat iets waar is, geeft dat ons dan het vertrouwen dat het waar is?” zij vroeg. “Wat als ze allemaal hallucineren?”
Source link: https://www.technewsworld.com/story/experts-say-workplace-ai-bans-wont-work-178537.html?rss=1