Putem forța roboții să fie corecți față de oameni?
Oamenii de știință au inventat doar o cale
Se pare că inteligența artificială poate înțelege cum să facă aproape orice. Poate simula Universul, poate învăța să rezolve un Cub Rubik cu o singură mână și chiar să găsească fantome ascunse în trecutul nostru, notează PETER DOCKRILL, în ediția din 25 noiembrie 2019 a revistei Science Alert.
Toate aceste tipuri de progres tehnologic au fost gândite și sunt destinate pentru a fi spre binele nostru. Dar ce se întâmplă atunci când nu sunt spre binele nostru? În ultimul timp, sistemele algoritmice care afectează deja viața oamenilor au demonstrat niveluri alarmante de părtinire în funcționarea lor, făcând lucruri precum previziunea criminalității pe linii rasiale și determinarea limitelor de creditare în funcție de sex.
În acest context, cum pot oamenii de știință să se asigure că sistemele avansate de gândire pot fi corecte sau chiar sigure?
Un nou studiu condus de cercetători de la Universitatea din Amherst, Massachusetts pare să ofere un răspuns, care descrie un cadru pentru a preveni ceea ce echipa numește "comportament nedorit" la mașinile inteligente.
"Când cineva aplică un algoritm de învățare automată, este greu să-i controlezi comportamentul", spune cercetătorul de Machine Learning Philip Thomas.
"Am face mai bine să asigurăm corectitudinea și să evităm răul, devine din ce în ce mai important, deoarece algoritmii de învățare automată ne afectează din ce în ce mai mult viața".
Cadrul - care ar putea ajuta cercetătorii AI să dezvolte noi tipuri de algoritmi de învățare automată (ML) - nu îmbină inteligențe artificiale cu nicio înțelegere inerentă a moralității sau corectitudinii, ci mai degrabă ușurează cercetătorii din Machine Learning să specifice și să reglementeze comportamentul nedorit atunci când își proiectează algoritmii de bază.
În centrul noului sistem se află ceea ce echipa numește algoritmii "seldoniani", numit după personajul central al celebrei serii de romane de știință din Fundația lui Isaac Asimov. Acești algoritmi nu se referă doar la asigurarea funcționării etice; orice fel de comportament poate fi controlat, cum ar fi caracteristici complexe de siguranță în sistemele medicale.
"Dacă folosesc un algoritm seldonian pentru tratamentul diabetului, pot specifica faptul că un comportament nedorit înseamnă glicemie periculos de scăzută sau hipoglicemie", spune Thomas.
"Pot spune mașinii: 'În timp ce încercați să îmbunătățiți controlerul în pompa de insulină, nu faceți modificări care ar crește frecvența hipoglicemiei'. Majoritatea algoritmilor nu vă oferă o modalitate de a impune acest tip de constrângere asupra comportamentului, nu a fost inclus în proiectele timpurii".
Ca parte a cercetării lor, echipa a dezvoltat doar un astfel de algoritm seldonian pentru a controla o pompă de insulină automatizată, identificând o modalitate adaptată de a prezice în mod sigur dozele pentru o persoană bazată pe citirea glicemiei.
Într-un alt experiment, ei au dezvoltat un algoritm pentru a prezice notele pe care le-ar obține studenții pe perioada studiilor, evitând în același timp prejudecățile de gen care se găsesc în algoritmi de regresie folosiți frecvent.
Cercetătorii empatizează că aceste experimente servesc doar ca dovadă a principiului a ceea ce algoritmii seldoniani sunt capabili și că obiectivul principal al lucrării este cadrul propriu-zis, pe care alți oameni de știință îl pot folosi ca ghid pentru a construi viitoare sisteme de inteligență artificială.
"Credem că există un o mare marjă pentru îmbunătățiri în acest domeniu", spune Thomas.
"Chiar și cu algoritmii noștri din componente simple, am obținut rezultate impresionante. Sperăm că cercetătorii de machine learning vor continua să dezvolte algoritmi noi și mai sofisticați folosind cadrul nostru, care poate fi utilizat în mod responsabil pentru aplicațiile în care machine learning obișnuia să fie luată în considerare riscant".