Brief tegen ai: elon musk en experts roepen op tot pauze in ontwikkeling

Brief tegen AI: Elon Musk en experts roepen op tot pauze in ontwikkeling

Jefferson Tafarel-avatar
Brief tegen AI ondertekend door meer dan 1000 experts waarschuwt voor de risico's van de race in de ontwikkeling van Artificial Intelligence (AI)-modellen en vraagt ​​om 6 maanden opschorting van activiteiten

De CEO van Twitter, Elon Musk en de historicus die beroemd is om het boek Een korte geschiedenis van de mensheid, Yuval Noah Hararibesloten onder meer specialisten, onderzoekers en wetenschappers een brief te ondertekenen waarin ze vragen om een ​​pauze in het updaten en doorontwikkelen van AI.

De betreffende brief is opgesteld door de Instituut voor de toekomst van het leven (Instituut voor de Toekomst van het Leven, in vrije vertaling) en beveelt een pauze aan in de ontwikkeling van kunstmatige intelligentie (AI) van minimaal zes maanden, wat transparant is. Lees meer over de inhoud van het document, bekijk de vertaling van de volledige tekst en blijf op de hoogte van de discussies rond het volgende onderwerp.

Wat zegt de brief tegen AI over kunstmatige intelligentie?

Zelfstandig werken en de opkomst van desinformatie zijn twee van de grootste zorgen over AI-technologieën die in de brief worden benadrukt. De inhoud van de tekst vereist ook dat het moment van opschorting van de ontwikkeling met tools zoals GPT-4, halverwege de reis en vergelijkbare AI-oplossingen moeten "openbaar en verifieerbaar" zijn.

Met betrekking tot investeringen wordt in de brief ook besproken hoe OpenAI, Microsoft e Google zitten in een technologierace zonder goed te kijken hoe overheden en openbare instellingen worstelen om elke nieuwe stap bij te houden. Dat wil zeggen, volgens het document gaat de AI-sector een snelheid in die steeds moeilijker te volgen is en zelfs de actoren die betrokken zijn bij de technologie erkennen dit.

“Als deze pauze niet snel geregeld kan worden, moeten overheden ingrijpen en een schorsing instellen”

brief van Instituut voor de toekomst van het leven
Tristan Harris ondertekende de brief die waarschuwt voor de risico's bij het ontwikkelen van IAS
De brief waarin wordt opgeroepen tot een rem op de ontwikkeling van AI-oplossingen krijgt de steun van experts zoals Tristan Harris, ooit een Google-medewerker in de productsector (Afbeelding: Michael Kovac/Getty Images).

O tekst hij noemt ook AI-laboratoria die technologieën produceren, maar geen nauwkeurige beoordelingen kunnen maken en zelfs niet in staat zijn om controle te hebben over deze digitale geesten. Wat de ondertekenaars intrigeert - van medeoprichter van Apple Steve Wozniak tot baanbrekende onderzoekers als Yoshua Bengio en Stuart Russell tot voormalig Google-productfilosoof Tristan Harris - zijn vragen over de reikwijdte van informatieverspreiding, onwaarheden, de vervanging van de menselijke geest en de eigenlijke "controle". van onze beschaving". In die zin besteedt het document ook aandacht aan het beste investeringsmoment:

"Krachtige AI-systemen mogen alleen worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico's zullen worden beheerst."

brief van Instituut voor de toekomst van het leven

Future of Life Institute en verantwoorde technologie

Opgericht in 2015, uit een investering van Elon Musk, de Instituut voor de toekomst van het leven probeert nieuwe technologische vooruitgang te distantiëren van mogelijke risico's voor het leven, zowel voor de mensheid als voor andere levende wezens. De organisatie besteedt niet alleen aandacht aan AI, maar monitort ook producties op het gebied van onder meer biotechnologie en kernenergie. De inspanningen van dit instituut om technologische verantwoordelijkheid te ondersteunen, hebben als visie een wereld waarin ziekten worden uitgeroeid en democratieën over de hele wereld worden versterkt.

Kunstmatige intelligentiebrief tegen ai-investering
Met het oog op kunstmatige intelligentie deed Future of Life, die de brief tegen AI opstelde, een misplaatste investering (Afbeelding: Expo/Persfoto).

De acties van Future of Life werden erkend door de Verenigde Naties (VN) in 2020: de VN heeft het instituut aangesteld als vertegenwoordiger van het maatschappelijk middenveld op het gebied van AI. Eerder dit jaar moest de president van die technologiewaakhond, Max Tegmark, echter zijn excuses aanbieden voor een misplaatste investering in een extreemrechts mediaplatform, het Zweedse Nya Dagbladet.

Wat is het standpunt van andere bedrijven over AI-ontwikkeling?

Geconsolideerde bedrijven zoals Google e Microsoft vermeden commentaar op de brief van de Instituut voor de toekomst van het leven. De twee bedrijven gaan steeds meer over op het aanbieden van AI-oplossingen, in het licht van de producties van de OpenAI, het bedrijf dat de ChatGPT. Trouwens, de "moeder" van een van de beroemdste AI's van dit moment ontving van Microsoft 10 miljard dollar aan investeringen. Tegelijkertijd gebruikt het door Bill Gates opgerichte bedrijf OpenAI-technologie in zijn zoekmachine, de Bing.

Oplossingen met de strijd
Google verplaatst de speelstukken al om oplossingen voor te stellen met AI die net zo krachtig is als ChatGPT, zoals Bard (Afbeelding: JagranJosh/Reproductie).

Toevallig publiceerde Bill Gates deze maand zelfs een brief waarin hij ingaat op de mogelijke effecten die AI-oplossingen naar de toekomst kunnen brengen. Google handhaaft zijn investeringen in kunstmatige intelligentie via de Bard, die nog niet volledig beschikbaar is voor het publiek.

Deskundige zorgen over AI en GPT-4

Ook al is het verbeterd, de tool GPT-4 het levert nog steeds resultaten op met enkele hallucinaties en kan gebruikers van dienst zijn met schadelijke taal. Maar er zijn mensen die geloven dat de pauze in feite zou moeten zijn om meer te begrijpen over de voordelen - en niet alleen de nadelen van AI-technologieën. Dat stelt Peter Stone, onderzoeker aan de Universiteit van Texas in Austin (VS).

Handvest voor robotexperts
Brief van experts verdeelt de meningen over de toekomst van kunstmatige intelligentie (Afbeelding: Intelligence Square / Reproductie).

“Ik denk dat het de moeite waard is om wat ervaring op te doen met hoe [AI's] al dan niet correct kunnen worden gebruikt, voordat we verder gaan met het ontwikkelen van de volgende [technologie]. Dit zou geen race moeten zijn om een ​​nieuw model van kunstmatige intelligentie te produceren en het voor de anderen vrij te geven.”

Peter Stone

In tegenstelling tot deze functie, een van de ondertekenaars, Emad Mostaque, oprichter van het bedrijf Stabiliteit AI (gewijd aan tools met kunstmatige intelligentie), vertelde Wired dat AI-oplossingen een mogelijke bedreiging vormen voor het voortbestaan ​​van de samenleving. Hij hechtte ook belang aan de manier waarop investeringen moeten worden beoordeeld, meer rekening houdend met wat er in de toekomst van deze technologiewedloop kan gebeuren.

"Het is tijd om commerciële prioriteiten opzij te zetten en een pauze te nemen voor het welzijn van iedereen, meer om onderzoek te doen in plaats van deel te nemen aan een race met een onzekere toekomst."

Emad Mostaque

Brief tegen AI: volledige vertaling

brief tegen ai josh
President van het Future of Life Institute, auteur van de anti-AI-brief, Max Tegmark (Afbeelding: Josh Reynolds/Getty Images).

Gigantische AI-experimenten pauzeren: een open brief

We adviseren alle kunstmatige intelligentie (AI) labs om de training over AI-systemen die krachtiger zijn dan GPT-4 onmiddellijk voor minimaal zes maanden te onderbreken

AI-systemen met intelligentie die in staat zijn om met mensen te concurreren, kunnen grote risico's vormen voor de samenleving en de mensheid, zoals blijkt uit uitgebreid onderzoek van Cornell University, de boeken Het uitlijningsprobleem (Brian Christian, 2020), Mens zijn in het tijdperk van kunstmatige intelligentie (Max Tegmark, 2017) en door andere onderzoeken — over vorderingen op dit gebied, ethiek, impact op de arbeidsmarkt, existentiële risico's — naast erkenning door gerenommeerde AI-laboratoria. Zoals vermeld in de AI-principes van Asilomar: "Geavanceerde AI kan een ingrijpende verandering betekenen in de geschiedenis van het leven op aarde en moet met zorg en met passende middelen worden gepland en beheerd." Helaas gebeurt dit niveau van planning en beheer niet, ook al hebben AI-labs de afgelopen maanden een uit de hand gelopen race gezien om steeds krachtigere digitale geesten te ontwikkelen en te benutten die niemand - zelfs hun makers niet - kan begrijpen. , betrouwbaar voorspellen of beheersen. 

Nu worden de huidige AI-systemen in staat om met mensen te concurreren op taken in het algemeen, en we moeten ons afvragen: We moeten machines onze informatiekanalen laten overspoelen met proselitisme en onwaarheden? We moeten alle taken automatiseren, ook de bevredigende? We moeten niet-menselijke geesten ontwikkelen zodat ze ons uiteindelijk in aantal en intelligentie kunnen overtreffen, ons overbodig kunnen maken en ons kunnen vervangen? We moeten het risico lopen de controle over onze beschaving te verliezen? Dergelijke beslissingen mogen niet worden gedelegeerd aan niet-ondersteunde technologieleiders. Krachtige AI-systemen mogen alleen worden ontwikkeld als we er zeker van zijn dat hun effecten positief zullen zijn en dat hun risico's zullen worden beheerst.. Dit vertrouwen moet goed worden gerechtvaardigd en versterkt in verhouding tot de omvang van de mogelijke gevolgen van de systemen. Een recent OpenAI-standpunt over generatieve kunstmatige intelligentie stelt dat “het op een gegeven moment belangrijk kan zijn om een ​​onafhankelijke beoordeling te hebben, voordat we in de toekomst beginnen met het trainen van systemen voor meer geavanceerde inspanningen, aangezien de groeisnelheidslimiet van de computer die wordt gebruikt om te creëren nieuwe modellen [van AI]”. Wij zijn het eens. Nu is het moment. 

Bijvoorbeeld We hebben alle laboratoria voor kunstmatige intelligentie (AI) geadviseerd om de training over AI-systemen die krachtiger zijn dan GPT-4 onmiddellijk voor ten minste zes maanden te onderbreken. Deze onderbreking moet openbaar en verifieerbaar zijn en alle belangrijke actoren omvatten. Als zo'n pauze niet snel geregeld kan worden, moeten de machthebbers ingrijpen en een schorsing instellen.

AI-labs en onafhankelijke experts zouden deze pauze moeten gebruiken om gezamenlijk een reeks gedeelde beveiligingsprotocollen te ontwikkelen en te implementeren voor het ontwerp en de ontwikkeling van geavanceerde AI's, die grondig worden gecontroleerd en geverifieerd door externe beoordelaars. Deze protocollen moeten ervoor zorgen dat systemen die onder deze normen vallen, zonder enige twijfel veilig zijn – een voorbeeld zijn de algemeen aanvaarde AI-principes van de OESO, die vereisen dat AI-systemen 'naar behoren functioneren en geen onbetrouwbare beveiligingsrisico's vertonen'. Dat niet het betekent een onderbreking in de AI-ontwikkeling in het algemeen, maar gewoon een uitweg uit een gevaarlijke race naar onvoorspelbare 'black box'-modellen, groter en groter en met opkomende mogelijkheden.  

AI-onderzoek en -ontwikkeling moeten zich opnieuw richten op het nauwkeuriger, veiliger, interpreteerbaar, transparant, robuust, afgestemd, betrouwbaar en loyaal maken van de huidige krachtige, geavanceerde systemen.

Tegelijkertijd moeten AI-ontwikkelaars nadrukkelijk samenwerken met beleidsmakers om de productie van rigoureuze AI-governancesystemen te versnellen. Ze moeten minimaal bevatten: 

  • nieuwe en capabele regelgevende instanties die zich bezighouden met kunstmatige intelligentie;
  • verificatie en monitoring van zeer krachtige AI-systemen met een grote bijdrage aan rekencapaciteit; 
  • herkomst- en merksystemen om echte van synthetische modellen van digitale geesten te onderscheiden, en om lekken van deze technologieën op te sporen; 
  • een bloeiend certificerings- en auditecosysteem; 
  • schade toezegging van AI-systemen;
  • voldoende publieke financiering voor technisch onderzoek naar AI-beveiliging; Het is
  • goed gefinancierde instellingen om te gaan met ernstige economische en politieke gevolgen die AI's veroorzaken (vooral met betrekking tot democratie). 

De mensheid kan genieten van een vruchtbare toekomst met AI. Nadat we met succes krachtige AI-systemen hebben gecreëerd, kunnen we nu een 'zomer van kunstmatige intelligentie' vieren, waarin we de vruchten plukken, die systemen ontwikkelen in het voordeel van iedereen en de samenleving de kans geven zich aan te passen. De samenleving heeft 'op de pauzeknop gedrukt' voor andere technologieën met mogelijk catastrofale gevolgen voor iedereen, zoals klonen, eugenetica en genetische manipulatie. Wij kunnen hier hetzelfde doen. Laten we genieten van een lange AI-zomer en ons niet haasten in de herfst.

Zie ook:

Midjourney gebruiken om AI-aangedreven afbeeldingen te maken

Bron: Bedraad | Tech Crunch | Future of Life | Vice-wereldnieuws

Beoordeeld door Glaucon Vital op 29-3-23.


Ontdek meer over Showmetech

Meld u aan om ons laatste nieuws per e-mail te ontvangen.

Gerelateerde berichten