TehnologieiElectronică

Google a testat DeepMind inteligență artificială într-o „dilema prizonierului“

Se pare probabil că inteligența artificială (AI) este un vestitor al viitoarei revoluții tehnologice. În cazul în care AI-ul va fi dezvoltat până la punctul când va fi capabil să învețe, cred că și chiar „simt“, și toate acestea fără nici o intervenție umană, tot ce știm despre lumea sa schimbat aproape peste noapte. Vine epoca inteligenței artificiale cu adevărat inteligent.

DeepMind

De aceea este atât de interesant pentru a urmări etapele importante în dezvoltarea ICS, care au loc, inclusiv dezvoltarea unei rețele neuronale de la Google DeepMind. Această rețea neuronală a fost în măsură să învingă omul în lumea jocului, și un nou studiu realizat de Google, arată că creatorii nu DeepMind încă sigur dacă AI-ul preferă un comportament mai agresiv sau cooperant.

Echipa Google a creat două script relativ simple pe care le puteți utiliza pentru a verifica dacă rețeaua neuronală poate lucra împreună, sau vor distruge reciproc, atunci când se confruntă cu problema lipsei de resurse.

colectarea de resurse

În prima situație, numită Gathering implicate două versiuni DeepMind - roșu și albastru - verde „tip de curățare mere“ în interiorul spațiului închis a fost pus. Dar, cercetatorii au fost interesați de problema nu este numai despre cine va veni primul la linia de sosire. Ambele versiuni DeepMind erau înarmați cu lasere, pe care le-ar putea folosi în orice moment pentru a trage la inamic și îl dezactivați temporar. Aceste condiții se presupune două scenarii principale: o versiune DeepMind a fost să distrugă cealaltă și să colecteze toate merele, sau le-ar lăsa reciproc obține aproximativ aceeași sumă.

Simulare rula cel puțin o mie de ori, cercetatorii au descoperit ca Google DeepMind a fost foarte liniștit și gata să coopereze, atunci când într-un spațiu închis a fost o mulțime de mere. Dar, cu resurse în scădere, versiunea roșu sau albastru DeepMind a început să atace și dezactiva reciproc. Această situație este într-o mare măsură similară cu viața reală a majorității animalelor, inclusiv la oameni.

Ceea ce este și mai important, mai puțin și mai puțin de rețele neuronale „inteligente“ preferat să o cooperare mai strânsă în toate. rețele mai complexe, mai mari sunt preferate în general trădarea și egoismul de-a lungul unei serii de experimente.

Caută „victimă“

În al doilea scenariu, numit Wolfpack, versiunea roșu și albastru cerut pentru a urmări în jos forma familiară a unei „victime“. Ei ar putea încerca să-i prind singur, dar pentru ei ar fi mai profitabil pentru a încerca să o facem împreună. La urma urmei, mult mai ușor de a conduce victima într-un colț, dacă acționați în tandem.

Deși rezultatele au fost amestecate în cazul rețelelor mici, versiuni mai mari a dat seama rapid că o cooperare mai degrabă decât concurența în această situație va fi mai favorabilă.

„Dilemei prizonierului“

Deci, ce fac aceste două versiune simplă a „dilema prizonierului“ ne arată? DeepMind știe că cel mai bun mod de a lucra, dacă doriți să urmăriți țintă, dar atunci când resursele sunt limitate, funcționează bine trădare.

Probabil cel mai rău lucru din aceste rezultate că „instinctul“ de inteligență artificială este prea asemănător umană, și suntem conștienți de ceea ce provoacă uneori.

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 ro.unansea.com. Theme powered by WordPress.