De meesten van jullie hebben waarschijnlijk gezien dat er vorige week een “brief” over kunstmatige intelligentie (AI) is vrijgegeven. Deze brief was eerder ondertekend door meer dan 1800 zakenmensen, academici en anderen die vroegen om het onderzoek naar AI voor zes maanden te pauzeren. Onder de ondertekenaars waren onder anderen Elon Musk, Steve Wozniak (medeoprichter Apple) & Juval Noah Hari (auteur van Sapiens). Vorig weekend had de brief al meer dan 12.000 handtekeningen. Mocht je je afvragen waarom dit zo is, waarom deze brief überhaupt is geschreven, wat erin staat en waarom het je iets zou moeten schelen, lees dan verder. In dit artikel deel ik vijf belangrijke dingen met je en leg ik uit waarom deze brief cruciaal kan zijn voor de toekomst van technologie en onze samenleving.
1. Waarom is deze brief geschreven?
We bevinden ons momenteel in een tijd waarin makers van technologie bang worden van hun eigen ontwerpen. Met het verschijnen van ChatGPT (waarvan de firma erachter mede is opgericht door Elon Musk) spreken we over “geavanceerde AI-systemen”. Geavanceerde, of sterke AI, beschrijft programmering die de cognitieve capaciteiten van het menselijk brein kan nabootsen. Dit bestaat al en betekent dat het repetitieve taken kan vervangen die veel mensen als hun fulltimebaan beschouwen. Dit is geweldig voor sommigen, omdat het kan helpen bij het besparen van kosten en het verbeteren van de kwaliteit van leven, maar het kan ook rampzalige gevolgen hebben als deze banen cruciaal zijn voor de zingeving van mensen hun levens – waardoor ze onvoldaan en zonder salaris aan het eind van de maand achterblijven.
Zijn er dan geen regels rond de toepassingen en implementaties van AI, hoor ik je denken? Nou, die zijn er wel. In de algemeen onderschreven Asilomar AI Principles, een van de eerste en meest invloedrijke sets van AI governance principes, gecoördineerd door het Future of Life Institute, staat het volgende: “Geavanceerde AI kan een diepgaande verandering betekenen in de geschiedenis van het leven op aarde zoals wij dat kennen en moet daarom met uiterste zorg worden gepland”.
Helaas is er nog geen sprake van extreme zorg en planning, maar dat is niet nieuw. In veel gevallen van technologische innovatie zijn de gevolgen van de technologie vooraf niet te overzien. Niemand had waarschijnlijk verwacht dat meer dan de helft van de mensen op Instagram een intense druk voelt om er op een bepaalde manier uit te zien door filters die worden aangeboden. Of de impact die Facebook en sociale media in het algemeen hebben op mensen die zich geïsoleerd voelen, waar het de bedoeling was om mensen te verbinden en gemeenschappen op te bouwen.
Gezien de hoeveelheid tijd die we online en achter een scherm doorbrengen, zouden we ons meer zorgen moeten maken. Nu we steeds beter beginnen te begrijpen waar AI toe kan leiden, moeten we dankbaar zijn dat deze AI-brief is verschenen. Zonder het bewustzijn dat wordt gecreëerd door instellingen als het Center for Human Technology of The Future of Life instituut dat verantwoordelijk is voor het uitbrengen van deze brief – hadden wij “burgers” het misschien niet eens gemerkt.
Dit “bewustzijn” perspectief van de brief is zeer constructief, “de brief is belangrijk” omdat het ons wakker schudt rondom de onbedoelde gevolgen van AI en geavanceerde AI-ontwikkelingen. De invloedrijke mensen die de brief hebben ondertekend, beschikken misschien zelfs over meer informatie dan wij en zijn zich nog meer bewust van de gevaren die in het verschiet liggen.
Aan de andere kant ben ik ook sceptisch. Toen ik de brief deze week met verschillende mensen om mij heen besprak, werd duidelijk dat het de vraag is wat de bedoelingen van sommige ondertekenaars zijn. Het kan ook zijn dat sommige tech-giganten willen dat de AI-gemeenschap een pauze inlast om met hun eigen oplossingen een voorsprong op de concurrentie te krijgen (want ook zij moeten een pauze inlassen). Nog afgezien van wat dit met hun reputatie zou kunnen doen na veelbesproken gedrag rond recente overnames van technische bedrijven.
2. Wat stond er in deze brief?
Of je nu mijn positieve of sceptische kijk deelt, het is goed dat we aandacht besteden aan het gevaar van opkomende technologie in het algemeen en AI in het bijzonder. Er wordt onder andere het volgende geschreven:
“AI-systemen met menselijk-competitieve intelligentie kunnen diepgaande risico’s vormen voor de samenleving en de mensheid. Krachtige AI-systemen mogen pas worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en hun risico’s beheersbaar.”
Daarnaast vraagt de brief om een stop op de “gevaarlijke race” om systemen te ontwikkelen die krachtiger zijn dan OpenAI’s onlangs gelanceerde ChatGPT-4. Maar wat is krachtiger? We weten niet waar we naartoe gaan. Een definitief noodzakelijke en slimme volgende stap is dus de gevraagde pauze.
Waar ik het eens ben met deze stellingen, zal een pauze van 6 maanden waarschijnlijk te kort zijn om tot de “juiste” afspraken rond AI – of welke andere opkomende technologie dan ook – te komen. Daarnaast zouden het “levende afspraken” moeten zijn, die met voortschrijdend inzicht kunnen worden aangepast. Bedrijven, academici en juridische afdelingen moeten samenwerken om te leren en de regels en voorschriften gaandeweg aan te passen. Dit zou dan leiden tot de gevraagde set “gedeelde veiligheidsprotocollen”.
3. Waarom is er getekend?
Terwijl we al lange tijd over AI-projecties horen, hebben recente ontwikkelingen de massa laten zien wat het betekent als tools door AI worden aangedreven. Met de opkomst van ChatGPT is het voor velen duidelijk geworden hoe snel de technologie leert, evolueert en taken overneemt. Het is duidelijk geworden dat we een pauze nodig hebben om kritische vragen te kunnen stellen.
De enige weg vooruit is door een stap terug te doen. Kritische vragen en langetermijndenken zijn nodig om te voorkomen dat we een technologie ontwerpen die alles overneemt. Belangrijke vragen die in de brief worden gesteld:
- "Moeten we alle banen automatiseren, inclusief vervullende banen?"
- "Moeten we niet-menselijke geesten ontwikkelen die ons te slim af zijn?"
- "Moeten we het riskeren de controle over de mensheid te verliezen?"
4. Wat betekent het voor onze wereld?
Het verschijnen van deze brief kan worden beschouwd als baanbrekend en fundamenteel voor de belangrijke discussies die moeten plaatsvinden. Al vele jaren waarschuwen verschillende ingenieurs en technologen voor de gevaren van “black boxes” binnen de digitale technologie en AI in het bijzonder. Een zeer belangrijke stap wordt gezet door de bewustmaking op dit mondiale niveau. In de brief staat dat we door deze pauze “kunnen genieten van een – AI-zomer – waarin we de vruchten plukken, deze systemen kunnen finetunen voor het duidelijke voordeel van iedereen en de samenleving de kans kunnen geven zich aan te passen”.
Het is optimistisch om te verwachten dat onze hele samenleving zich in één zomer zal aanpassen, maar het is een nobel streven. Laten we hopen dat de gecreëerde regels en voorschriften worden opgeschreven op een manier die kan worden veranderd – want we zullen blijven leren door te doen – en een voorbeeld worden voor andere opkomende technologieën die verband houden met AI (bv. The Metaverse, Robotics, Blockchain & Quantum).
5. Wat kan jij doen?
Als je je afvraagt wat de impact van AI is op jezelf of je bedrijf, of als je je overweldigd voelt door opkomende technologie, raad ik je aan het unieke FOMO 2.0 raamwerk te gebruiken om je te helpen begrijpen hoe je erover kan denken. Veel leiders en besluitvormers hebben de neiging om af te haken wanneer ze het gevoel hebben grip te verliezen door een nieuwe technologie. Maar door de grote gevolgen die opkomende technologie op ons leven heeft, is er geen tijd meer voor angst. We moeten op lange termijn denken. De tijd is nu. Begin met het toepassen van het FOMO 2.0 framework op jouw gedachten.
Het FOMO 2.0 framework is een proces dat uit vier stappen bestaat voor individuen en organisaties om opkomende technologie, zoals AI, te benaderen. De stappen zijn: Vorm je eigen mening, Organiseer conflict, Voeg de inzichten samen en Orkestreer actie.
Het framework moedigt je aan om eerst kritisch na te denken over hoe de technologie jouw werk en organisatie zal beïnvloeden, vervolgens vraagt het je diverse perspectieven en informatie van anderen te verzamelen, die inzichten samen te voegen en te synthetiseren, en ten slotte actie te ondernemen op basis van het nieuwverworven inzicht. Het is een hulpmiddel om leiders te helpen door de complexiteit van opkomende technologie te navigeren en weloverwogen beslissingen te nemen.
F: (Form your own opinion) Vorm je eigen mening – kom uit je “cookie bubbel” en neem de tijd om na te denken over hoe Advanced AI jouw dagelijks werk, het werk van je team en je organisatie zal beïnvloeden. Bent je gelukkig of ongelukkig? Krijgt je meer tijd voor creativiteit? Of vrees je jouw baan te verliezen?
O: (Organize conflict) Organiseer conflict – als je eenmaal je eigen visie hebt gecreëerd, organiseer dan een bijeenkomst met 5-8 mensen met verschillende functies. Vraag hen hetzelfde te doen om een beter beeld te krijgen van hoe mensen binnen jouw organisatie tegen AI aankijken. Je zult jouw team beter begrijpen, maar ook inzichten krijgen over hoe het je zou kunnen helpen om tot creatieve oplossingen te komen.
M: (Merge insights) Voeg inzichten samen – zorg ervoor dat je iets doet met de nieuwe informatie en perspectieven die je hebt opgedaan. Werk samen met je communicatiespecialist en laat mensen in je team of organisatie weten wat jij weet.
O: (Orchestrate) Orkestreer – handel ernaar. In 50% van de gevallen die ik in mijn onderzoek onderzocht, kregen leiders nieuwe perspectieven, maar deelden ze deze niet op de juiste manier in hun team of organisatie. Laat jezelf en je team niet in de steek. Leiders die zich zorgen maken en zich aanpassen aan de veranderingen om hen heen, boeken betere resultaten.
Tot slot heb ik de brief ondertekend. Als jij deze ook wilt ondertekenen, kan je dat doen via deze link. Bedankt voor het lezen – in geval van vragen over AI of het FOMO 2.0 model voel je vrij om contact op te nemen (maxime@nlmtd.com)