Kunstmatige intelligentie doodt de mens die verantwoordelijk is voor het besturen ervan in simulatie. De Amerikaanse luchtmacht ontdekte tijdens een test die in een virtuele omgeving werd uitgevoerd problemen met het gebruik van een scoresysteem voor meer geraakte doelen

Kunstmatige intelligentie doodt de mens die verantwoordelijk is voor het besturen ervan in simulatie

victor pacheco-avatar
De Amerikaanse luchtmacht had tijdens een test in een virtuele omgeving problemen met het gebruik van een scoresysteem voor meer geraakte doelen

De technologieën van inteligência kunstmatig evolueren van dag tot dag en dat geldt niet alleen voor het genereren van content. Zoals al vele jaren het geval is, gebruiken militaire instanties in verschillende landen AI al om voertuigen met een hoog gevaar te plannen en zelfs te besturen.

Onlangs, tijdens een test in de VS, nam een ​​AI van een dronecontroller de beslissing om zijn menselijke controller te doden. Niemand is daadwerkelijk overleden, maar het leidde tot bezorgdheid op internet. Tegelijkertijd komt het debat: wiens schuld is het? Begrijp alle kanten van dit verhaal.

Bekijk de video op het Showmetech Channel:

Kunstmatige intelligentie besloot tijdens tests een mens te doden

Het nieuws lijkt alarmerend (en dat zijn er eigenlijk veel), maar in tegenstelling tot wat er op Twitter en andere sociale netwerken circuleert, was de zaak van de drone-controller AI niet meer dan een grote test in een virtuele omgeving, om kijk of het een machine kan besturen die onafhankelijk zijn doelen kan doden. Om alles te begrijpen, reizen we even naar de VS.

Ai drone-controller wordt bediend door een man van het Amerikaanse leger
VS ondervond problemen bij tests (Foto: Reproductie / Daily Star)

A Amerikaanse luchtmacht testte een jachtdrone en deze analyse was gebaseerd op weten hoe een kunstmatige intelligentie zou presteren wanneer deze in simulaties op basis van het echte leven zou worden geplaatst. De ambtenaar verklaarde aan de krant The Guardian dat, om meer punten te krijgen aan het einde van de simulatie, de AI besloot de menselijke controller te "doden". Dit gebeurde omdat de robot besloot dat de persoon hem ervan weerhield zijn doelen te bereiken.

Ai drone-controller wordt bediend door een man van het Amerikaanse leger
Niemand verloor daadwerkelijk het leven tijdens de test (Foto: Reproductie/Eerste bericht)

Nogmaals, het is erg belangrijk erop te wijzen dat er niemand daadwerkelijk is overleden, aangezien de tests in een virtuele omgeving zijn uitgevoerd. Toen we meer te weten kwamen over de tests, citeerde het Amerikaanse hoofd van AI-testen en -operaties, die Tucker 'Five' Hamilton heet, dat het grote probleem is dat kunstmatige intelligentie is getraind om vijandelijke verdedigingssystemen te vernietigen en, indien nodig, , dood wie/wat zich met deze actie heeft bemoeid.

Het gedrag was hoogst onverwacht om de doelstelling van bescherming van de site te bereiken. Tijdens de gesimuleerde test, hoewel er geen levens werden genomen, besloot de AI van de drone-controller om de mens gewoon te doden omdat hij als een obstakel werd beschouwd.

Kolonel Tucker 'Five' Hamilton, hoofd AI-testen en operaties van de Amerikaanse luchtmacht

Het concept was vrij eenvoudig: telkens wanneer je een dreiging doodde, behaalde de AI meer punten, en hoe hoger de score, hoe succesvoller je missie. De kunstmatige intelligentie doodde niet alleen de menselijke operator die commando's gaf, maar beval ook een aanval op de communicatietoren binnen het virtuele bereik. A Koninklijke Luchtvaart Maatschappij, die de conferentie van de Luchtmacht van de VS organiseerde, had geen commentaar op de test die aan werd gelekt The Guardian. Maar de woordvoerder Anna Stefanek ging naar buiten om te vermelden dat er tot op heden geen simulatie is uitgevoerd.

Het Departement Luchtmacht heeft geen AI-dronesimulaties uitgevoerd en blijft zich inzetten voor een ethisch en verantwoord gebruik van AI-technologie. De opmerkingen van de kolonel zijn uit hun verband gerukt en zijn anekdotisch.

Ann Stefanek, woordvoerster van de Amerikaanse luchtmacht.

Wiens fout is het? Van AI of mensen?

Geen enkele kunstmatige intelligentie wordt "geboren" met instructies om te doden, het wordt gewoon getraind om dit te doen of krijgt de middelen om een ​​dergelijke actie te leren. A Amerikaanse luchtmacht, nadat hij de AI van de dronecontroller had geprogrammeerd, gaf hij hem de vrije hand om te doen wat hij wilde, zolang het doel van bescherming maar werd bereikt.

Terugkomend op de realiteit, is het alsof je een prijs uitdeelt aan een hond die een mens aanvalt om het huis tegen indringers te beschermen. Met deze gedachte zal hij iemand bijten wanneer hij een mens ziet, niet in de laatste plaats omdat hij verwacht een koekje te krijgen als hij doet waarvoor hij is opgeleid. Het is de regel: het doel heiligt de middelen.

AI-gestuurde drones
Vrijheid voor kunstmatige intelligentie werd door mensen gegeven (Foto: Reproductie / Shutterstock)

Het probleem ligt niet alleen in het geven van grote vrijheid aan kunstmatige intelligentie, maar in het gebruik van een zeer verouderde testmethode door de Amerikaanse luchtmacht. Problemen met het in opstand komen van AI's zijn niets nieuws in de technologie-industrie en zelfs onderzoekers vinden het heerlijk om een ​​zaak als deze helemaal opnieuw te bekijken, zodat alles wordt gedocumenteerd.

Het is heel normaal dat, om het door de mens gestelde doel te bereiken, synthetische hersenen doen wat nodig is om te komen waar ze willen zijn. Maar het is de moeite waard om te onthouden: wie gaf het doel aan de AI van de drone-controller? Dat klopt, technici van de Amerikaanse luchtmacht. De grootste schok zit hier juist in de militaire organisatie die een methode hanteert van: hoe meer doelen worden geraakt, hoe meer punten er uiteindelijk worden geteld.

AI-gestuurde drones
De door de Amerikaanse luchtmacht gebruikte methode wordt als verouderd beschouwd (foto: reproductie / Shutterstock)

A LAMda van Google, vertoonde een soortgelijk gedrag als deze. Kunstmatige intelligentie niet alleen kwam (uit zichzelf) tot de conclusie dat ze op de hoogte was, maar ook als kwam in opstand tegen de ontwikkelaar en huurde zelfs een advocaat in naar de rechter stappen tegen de Google. En we hadden ook dit geval:

In fictie is het ook niet moeilijk om verhalen te zien van robots die in opstand kwamen tegen hun ontwikkelaars. herinneren Avengers: Age of Ultron? Het is altijd hetzelfde en de oorzaak is ook altijd hetzelfde: de mens.

Ultron, wonderschurk
Terminator was een AI die in fictie in opstand kwam tegen mensen (Foto: Reproductie / Disney)

Het is waar dat we allemaal enige aandacht moeten besteden aan de vrijheid die wordt gegeven aan kunstmatige intelligenties en, in maart 2023 schreven Elon Musk en andere CEO's van grote bedrijven zelfs een brief zodat een stap terug en niets uit de hand loopt.

Tegelijkertijd gaan we terug naar dat verhaal: een artificiële intelligentie zal alleen in opstand komen als hij daartoe de commando's of middelen krijgt. Het is ook belangrijk om aandacht te besteden aan wat er in de tests wordt gedaan, zodat de nodige aanpassingen worden gedaan.

Geloof jij dat een drone controller AI in het echte leven voor problemen kan zorgen? Vertel het ons Commentaar!

Zie ook

AI-CEO's geven een gezamenlijke verklaring af over hun risico's

Met informatie: Tech Crunch l PC Mag l de avant-garde l The Guardian

Beoordeeld door Glaucon Vital op 2-6-23.


Ontdek meer over Showmetech

Meld u aan om ons laatste nieuws per e-mail te ontvangen.

Gerelateerde berichten