Het bericht Zal Kunstmatige Intelligentie de Mensheid Redden—Of Beëindigen? verscheen op BitcoinEthereumNews.com. Kort samengevat: Een online panel toonde een diepe kloof tussen transhumanistenHet bericht Zal Kunstmatige Intelligentie de Mensheid Redden—Of Beëindigen? verscheen op BitcoinEthereumNews.com. Kort samengevat: Een online panel toonde een diepe kloof tussen transhumanisten

Zal Kunstmatige Intelligentie de Mensheid Redden—Of Beëindigen?

<div class="entry-content">
 <div style="font-size:1.2em;line-height:1.58">
  <div class="pt-8 pb-10 border-t border-b border-decryptGridline">
   <h4>In het kort</h4>
   <ul>
    <li>Een online panel toonde een diepe kloof tussen transhumanisten en technologen over AGI.</li>
    <li>Auteur Eliezer Yudkowsky waarschuwde dat huidige "black box" AI-systemen uitsterven onvermijdelijk maken.</li>
    <li>Max More betoogde dat het uitstellen van AGI de mensheid zijn beste kans zou kunnen kosten om veroudering te verslaan en langetermijnramp te voorkomen.</li>
   </ul>
  </div>
  <p>Een scherpe verdeeldheid over de toekomst van kunstmatige intelligentie speelde zich deze week af toen vier prominente technologen en transhumanisten debatteerden of het bouwen van kunstmatige algemene intelligentie, of AGI, de mensheid zou redden of vernietigen.</p>
  <p>Het panel, georganiseerd door de non-profitorganisatie Humanity+, bracht een van de meest uitgesproken AI-"Doemdenkers" samen, Eliezer Yudkowsky, die heeft opgeroepen tot het stopzetten van geavanceerde AI-ontwikkeling, samen met filosoof en futurist Max More, computationeel neurowetenschapper Anders Sandberg, en Humanity+ President Emeritus Natasha Vita‑More.</p>
  <p>Hun discussie onthulde fundamentele meningsverschillen over de vraag of AGI kan worden afgestemd op menselijk voortbestaan of dat de creatie ervan uitsterven onvermijdelijk zou maken.</p>
  <h2 style="margin-top:2em;text-align:left;padding-bottom:16px;margin-bottom:16px;border-bottom:1px solid #dfe2e4"><strong>Het "black box" probleem</strong></h2>
  <p>Yudkowsky waarschuwde dat moderne AI-systemen fundamenteel onveilig zijn omdat hun interne besluitvormingsprocessen niet volledig kunnen worden begrepen of gecontroleerd.</p>
  <p>"Alles wat black box is, zal waarschijnlijk eindigen met opmerkelijk vergelijkbare problemen als de huidige technologie," waarschuwde Yudkowsky. Hij betoogde dat de mensheid "heel, heel ver van de huidige paradigma's" zou moeten bewegen voordat geavanceerde AI veilig zou kunnen worden ontwikkeld.</p>
  <p>Kunstmatige algemene intelligentie verwijst naar een vorm van AI die kan redeneren en leren over een breed scala aan taken, in plaats van gebouwd te zijn voor één enkele taak zoals tekst-, beeld- of videogeneratie. AGI wordt vaak geassocieerd met het idee van de technologische singulariteit, omdat het bereiken van dat intelligenteniveau machines in staat zou kunnen stellen zichzelf sneller te verbeteren dan mensen kunnen bijhouden.</p>
  <p>Yudkowsky wees op de "paperclip maximizer" analogie, gepopulariseerd door filosoof Nick Bostrom, om het risico te illustreren. Het gedachte-experiment bevat een hypothetische AI die alle beschikbare materie omzet in paperclips, waardoor zijn fixatie op een enkel doel wordt bevorderd ten koste van de mensheid. Het toevoegen van meer doelstellingen, zei Yudkowsky, zou de veiligheid niet significant verbeteren.</p>
  <p>Verwijzend naar de titel van zijn recente boek over AI, "If Anyone Builds It, Everyone Dies," zei hij: "Onze titel is niet alsof het je <i>mogelijk</i> zou kunnen doden," zei Yudkowsky. "Onze titel is, als iemand het bouwt, sterft <i>iedereen</i>."</p>
  <p>Maar More betwistte de veronderstelling dat extreme voorzichtigheid de veiligste uitkomst biedt. Hij betoogde dat AGI de beste kans van de mensheid zou kunnen bieden om veroudering en ziekte te overwinnen.</p>
  <p>"Het belangrijkste voor mij is dat AGI ons zou kunnen helpen het uitsterven van elke persoon die leeft als gevolg van veroudering te voorkomen," verklaarde More. "We sterven allemaal. We gaan af op een catastrofe, één voor één." Hij waarschuwde dat buitensporige terughoudendheid regeringen zou kunnen drijven naar autoritaire controles als de enige manier om AI-ontwikkeling wereldwijd te stoppen.</p>
  <p>Sandberg positioneerde zichzelf tussen de twee kampen, waarbij hij zichzelf beschreef als "meer optimistisch" terwijl hij voorzichtiger bleef dan transhumanistische optimisten. Hij vertelde over een persoonlijke ervaring waarin hij bijna een groot taalmodel gebruikte om te helpen bij het ontwerpen van een biowapen, een episode die hij beschreef als "angstaanjagend."</p>
  <p>"We komen op een punt waar het versterken van kwaadwillende actoren ook een enorme puinhoop zal veroorzaken," zei Sandberg. Toch betoogde hij dat gedeeltelijke of "benaderende veiligheid" haalbaar zou kunnen zijn. Hij verwierp het idee dat veiligheid perfect moet zijn om betekenisvol te zijn, en suggereerde dat mensen op zijn minst konden convergeren op minimale gedeelde waarden zoals overleving.</p>
  <p>"Dus als je perfecte veiligheid eist, ga je het niet krijgen. En dat klinkt heel slecht vanuit dat perspectief," zei hij. "Aan de andere kant denk ik dat we eigenlijk benaderende veiligheid kunnen hebben. Dat is goed genoeg."</p>
  <h2 style="margin-top:2em;text-align:left;padding-bottom:16px;margin-bottom:16px;border-bottom:1px solid #dfe2e4"><strong>Scepsis over afstemming</strong></h2>
  <p>Vita-More bekritiseerde het bredere afstemmingsdebat zelf, en betoogde dat het concept een niveau van consensus veronderstelt dat zelfs onder langdurige medewerkers niet bestaat.</p>
  <p>"Het afstemmingsidee is een Pollyanna-plan," zei ze. "Het zal nooit afgestemd zijn. Ik bedoel, zelfs hier zijn we allemaal goede mensen. We kennen elkaar al tientallen jaren, en we zijn niet afgestemd."</p>
  <p>Ze beschreef Yudkowsky's bewering dat AGI onvermijdelijk iedereen zou doden als "absolutistisch denken" dat geen ruimte laat voor andere uitkomsten.</p>
  <p>"Ik heb een probleem met de algemene uitspraak dat iedereen sterft," zei ze. "Als je dit benadert als futurist en pragmatisch denker, laat het geen gevolg, geen alternatief, geen ander scenario. Het is gewoon een botte bewering, en ik vraag me af of het een soort absolutistisch denken weerspiegelt."</p>
  <p>De discussie omvatte een debat over de vraag of nauwere integratie tussen mensen en machines het risico van AGI zou kunnen verminderen—iets wat Tesla CEO Elon Musk in het verleden heeft voorgesteld. Yudkowsky verwierp het idee van fuseren met AI en vergeleek het met "proberen te fuseren met je broodrooster."</p>
  <p>Sandberg en Vita-More betoogden dat, naarmate AI-systemen capabeler worden, mensen nauwer moeten integreren of fuseren met hen om beter om te kunnen gaan met een post-AGI wereld.</p>
  <p>"Deze hele discussie is een realiteitscheck over wie we zijn als mensen," zei Vita-More.</p>
  <div class="my-4 border-b border-decryptGridline">
   <div>
    <h3>Daily Debrief Nieuwsbrief</h3>
    <p>Begin elke dag met de belangrijkste nieuwsverhalen van nu, plus originele features, een podcast, video's en meer.</p>
   </div>
  </div>
 </div>
 <p>Bron: https://decrypt.co/356554/will-artificial-intelligence-save-humanity-end</p>
</div>
Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met service@support.mexc.com om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.