i întreabă inginerii robotul. « Să trăie ș ti pentru totdeauna ». Acesta a fost răspunsul dat de [613040]

Inteligen
ț
a artificială
ș
i libertatea de con
ș
tiin
ț
ă

« Care este sensul vie
ț
ii ? » î
ș
i întreabă inginerii robotul. « Să trăie
ș
ti pentru

totdeauna ».

Acesta
a
fost
răspunsul
dat
de
robotul
creat
de
doi
ingineri
de
la
Google
care
au

introdus
26
de
milioane
de
replici
din
filme
într-o
re
ț
ea
neuronală
dând
na
ș
tere
unui

chatbot
care
extrage
singur
informa
ț
ii
din
acel
corpus
de
dialog
uman
ș
i
dobânde
ș
te

capacitatea
de
a
răspunde
la
întrebări
filosofice
folosind
algoritmi
probabilistici.

Răspunsul
prompt
al
robotului
la
întrebarea
care
chinuie
materia
cenu
ș
ie
umana
de

milenii
ne
face
inevitabil

ne
punem
următoarea
problemă
:
este
el
rezultatul
unui

proces
cognitiv
autonom
ș
i
propriu
ș
i
dacă
da,
se
bucură
de
libertatea
de
con
ș
tiin
ț
ă
ș
i

în consecin
ț
ă îi poate fi încălcat dreptul la aceasta?

Pentru
a
răspunde
la
aceste
întrebări
trebuie
mai
întâi

în
ț
elegem
conceptele
de

inteligen
ț
ă
artificială ,
machine
learning,
deep
learning
ș
i
care
este
în
fapt
rezultatul

utilizării lor.

Deep learning este un tip de machine learning, adică o tipologie de inteligen
ț
ă

artificială (AI), care permite unui computer să înve
ț
e din exemple, mai exact dintr-o

masă imensă de date introduse în prealabil. De exemplu, se pot introduce mii de

imagini pe care computerul va învă
ț
a sa le clasifice folosind tipare pe care le observă

singur. Cheia este faptul ca oamenii nu ii spun ce tipare să caute. Tehnologia de deep

learning copiază modul de func
ț
ionare a creierului uman flosind o re
ț
ea neuronala

artificială (ANN).

Această
re
ț
ea
func
ț
ionează
ca
un
filtru.
Datele
ini
ț
iale
sunt
introduse
apoi
pas
cu
pas

procesate
în
«
noduri
»
asemenea
circumvolu
ț
iunilor
din
creierul
uman.
După
ce
acest

proces
este
repetat,
calculatorul
revine
cu
un
răspuns
la
datele
introduse
ini
ț
ial.
Cu
cât

sunt
introduse
mai
multe
date
cu
atât
răspunsurile
vor
fi
mai
exacte,
mai
detaliate
ș
i

mai
complexe.
Astfel,
calculatorul
echipat
cu
deep
learning
va
putea
servi
ca
o

unealtă
foarte
utilă
în
func
ț
ie
de
datele
introduse.
El
nu
va
deveni
o
fiin
ț
ă
cu
propriile

păreri,
ci
doar
un
motor
de
căutare
care
găse
ș
te
răspunsuri
în
func
ț
ie
de
datele

introduse,
ca
un
stagiar
la
o
companie
care
nu
oferă
propria
opinie
despre
o
spe
ț
ă
ci

doar
rezumă
documentele
legale
citite,
aplicând
din
ele
doar
pasajele
referitoare
la

obiectul
cauzei.
Diferen
ț
a
este

stagiarul
are
o
părere
proprie
pe
care
nu
o
etalează,

pe când calculatorul rămâne mul
ț
umit cu răspunsul ini
ț
ial. De
ș
i el decide singur cu ce

tipar va analiza informa
ț
ia, în esen
ț
ă nu creează nimic ce nu a r putea fi dedus din

aceasta.

Eliza
este
un
chatbot
creat
în
anii
’60
la
MIT
de
către
programatorul
Joseph

Weizenbaum
pentru
a
imita
un
psiholog.
Existen
ț
a
ei
a
uimit
omenirea
ș
i
i-a
făcut
pe

cei
care
interac
ț
ionau
cu
ea

creadă

în
spatele
ecranului
negru
se
afla
o
fiin
ț
ă
în

adevăratul
sens
al
cuvântului,
cu
sentimente
ș
i
con
ș
tiin
ț
ă,
capabilă
de
empatie.

Weizenbaum
însă,
ș
i-a
privit
mereu
crea
ț
ia
ca
pe
un
«
truc
bun
de
utilizat
la
petreceri

»,
un
calculator
care
î
ț
i
răspunde
cu
un
ecou
al
propriilor
tale
cuvinte.
Ceea
ce
nu
a

realizat
el
a
fost
cât
de
u
ș
or
oamenii
au
devenit
convin
ș
i
de
iluzia
sim
ț
irii.
Omenirea

era
cucerită.
După
Eliza
au
urmat
Siri,
Alexa
ș
i
chiar
Barbie,
versiunea
mult-iubitei

păpu
ș
i capabilă acum să poarte un dialog mult mai avansat decât Eliza.

Faptul

putem
introduce
o
cantitate
infinită
de
date
într-un
calculator,
iar
acesta
va

răspunde
în
conformitate
cu
ele
la
orice
întrebare
îi
este
adresată,
deci
va
deveni

oglinda
respectivei
baze
de
date,
ne-a
adus
o
noua
întrebare
:
Ce
se
întâmplă
dacă

introducem
în
acea
bază
de
date
«
con
ș
tiin
ț
a
»
unui
om
?
Va
deveni
acel
robot

varianta
nemuritoare
a
lui
homo
sapiens
?
Da
ș
i
nu.
În
primul
rând
con
ș
tiin
ț
a
umană,

fiind
imposibil
de
materializat
în
întregime,
nu
poate
fi
introdusă
într-un
progrm.
Asta

se
datorează
în
special
faptului
ca
ea
se
află
într-o
continuă
schimbare,
creierul
uman

procesând
cantită
ț
i
incomensurabile
de
date
în
fiecare
secundă.
În
alte
cuvinte,

updatarea
con
ș
tiin
ț
ei
umane
e
mult
mai
rapidă
decât
vitez a
de
procesare
a
oricărui

program,
astfel
fiind
imposibil
de
stocat.
Ceea
ce
se
poate
face
este
introducerea
a
cât

mai
multe
date
despre
o
persoană,
creându-se
un
soi
de
arhivă
interactivă
personală.

Rezultatul
însă
nu
va
fi
varianta
nemuritoare
a
persoanei
în
cauză,
ci
mai
degrabă
un

fel
de
interviu
interactiv
cu
aceasta
dintr-un
moment
al
vie
ț
ii
sale.
Ce
nu
am
putea

ob
ț
ine
însă
este
o
variantă
evoluată
a
acelei
persoane,
deoarece
de
ș
i
ar
putea
răspunde

la noi evenimente, nu s-ar putea schimba fundamental la fel ca persoana reală.

În
practică,
daca
X
care
a
avut
o
dietă
nerestric
ț
ionată
toată
via
ț
a
ar
putea
fi
convins


devină
vegetarian
după
urmărirea
unui
documentar
despre
fermele
industriale,

calculatorul
în
care
au
fost
introduse
datele
despre
X
anterior
vizionării

documentarului
nu
este
capabil
în
mod
neechivoc
de
aceea
ș
i
schimbare.
Asta
se

datorează
în
special
faptului

spre
deosebire
de
calculatoare
care
func
ț
ioneaza
cu

algoritmi bine stabili
ț
i
ș
i cu o structură clară, oamenii sunt im previzibili.

Totu
ș
i, ob
ț
inerea variantei nemuritoare a cuiva drag a devenit foarte tentantă pentru

mul
ț
i.

Eugenia
Kuyda,
software
developper
din
SUA
a
dezvoltat
un
astfel
de
chatbot

introducând
mesajele
pe
care
ș
i
le
trimisese
cu
răposatul
ei
prieten
Roman

Mazurenko.
Rezultatul
a
fost
un
calculator
care
îi
răspundea
cu
acelea
ș
i
tipare
verbale

ale
prietenului
ei,
care
ș
tia
tot
ce
ace
ș
tia
discutasera
în
mesaj e
ș
i
putea
face
referin
ț
ă
la

diferite
evenimente
ș
i
chiar
da
sfaturi
pe
baza
lor.
De
exemplu,
la
întrebarea
«
Cine
e

cel
mai
bun
prieten
al
tau
?
»
robotul
a
răspuns
«
Nu
î
ț
i
arăta
nesiguran
ț
ele
»,
un

răspuns tipic domnului Mazurenko după spusele Eugeniei.

Nu
se
poate
argumenta

acest
robot
are
o
con
ș
tiin
ț
ă
proprie
ș
i
poate
cere

respectarean
acesteia,
deoarece
universul
său
cuprinde
doar
acel
set
limitat
de
mesaje,

« ideile » sale fiind dependente de acea sursă insuficientă.

Mult
mai
departe
a
mers
însă
James
Vlahos,
un
jurnalist
pasionat
de
IT
care
a
încercat


îi
ofere
tatalui
sau
bolnav
de
cancer
nemurire
artificială.
El
a
introdus
în
baza
de

date
a
robotului
interviuri
ample
cu
tatal
sau,
ajungând
la
un
numar
impresionant
de

91.970
de
cuvinte.
Atingând
subiecte
de
la
copilăria
lui
în
Grecia
până
la
umor,
opinii

politice
ș
i
valori
a
reu
ș
it

ob
ț
ină
un
prototip
func
ț
ional
cu
care

poată

poarte
o

conversa
ț
ie
care
simu leză
aproape
perfect
conversa
ț
iile
purtate
cu
tatăl
său.
Totu
ș
i,
el

a
spus

pe
măsură
ce
boala
tatălui
său
înainta,
progresele
robotului
deveneau
din
ce

în
ce
mai
dureroase
ș
i
greu
de
acceptat
pentru
familie,
declarând
ca
acum
ar
putea

vorbi
cu
robotul,
însă
nu
ș
tie
dacă
ar
mai
dori.
Robotul
supranumit
«
Dadbot
»
ar

putea
fi
util
însă
nepo
ț
ilor
care
nu
au
apucat

audă
toate
pove
ș
tile
bunicului
lor,

servind asemenea unei arhive personale interactive.

Tocmai
această
utilizare
a
Inteligen
ț
ei
Artificiale
se
va
dovedi
in
opinia
mea
cea
mai

utilă.
Dacă
extrapolăm
scopul
sentimental
al
dadbotului
ș
i
îl
aplicăm
unui
alt
scenariu

mult
mai
pragmatic,
ajungem
într-o
situa
ț
ie
complet
diferită
ce
ar
putea
pune

probleme
de
ordin
juridic.
Dacă
în
loc
de
pove
ș
tile
de
via
ț
ă
ale
unui
bunic
introducem

ra
ț
ionamentele,
cuno
ș
tin
ț
ele,
ideile
ș
i
experien
ț
ele
unui
om
de
ș
tiin
ț
ă,
în
teorie
robotul

ar
putea
realiza
inven
ț
ii
ș
i
inova
ț
ii
de
unul
singur.
Una
din
dilemele
care
apar
este

aceea
a
drepturilor
de
autor.
O
a
doua
problemă
este
de
natură
etică
:
dacă
omul
de

ș
tiin
ț
ă
ar
fi
putut
inventa
un
obiect,
dar
ar
fi
ales

nu
materializeze
inten
ț
ia,
este

moral
ca
robotul

expună
respectiva
inven
ț
ie
ca
fiind
parte
a
con
ș
tiin
ț
ei
sale
?

Ma
ș
inăria,
neavând
personalitate
juridică,
nu
poate
fi
trasă
la
răspundere
pentru

eventualele
implica
ț
ii
nefaste
ale
inven
ț
iei
de
care
în
lipsa
unor
mo
ș
tenitori
s-ar
putea

folosi
cel
mai
probabil
statul
a
cărei
cetă
ț
enii
o
avea
defunctul.
Putem
argumenta

acum, complicând
ș
i mai mult dilema legală, că robotul nu are cetă
ț
enie
ș
i ca inven
ț
ia

îi apar
ț
ine lui. Cum a r putea însă să îi apar
ț
ină inven
ț
ia când a ajuns la ea numai

deoarece i-au fost puse la dispozi
ț
ie datele cercetătorului ?

Oricât
de
tentant
ar
fi

continuăm

construim
scenarii
ipotetice
demne
de
Isaac

Asimov,
trebuie

clarificăm
ni
ș
te
lucruri.
Robotul,
oricât
de
bine
informat
ar
fi,
nu

este
altceva
decât
o
unealtă,
un
mijloc
de
facilitare
pentru
posesorii
lui.
Astfel,
robotul

trebuie

aibă
un
posesor,
un
curator
care

îl
între
ț
ină.
La
fel
cum
în
cazul
în
care

dacă
un
utilaj
de
construc
ț
ii
cade
pe
un
muncitor
nu
putem
trage
la
răspundere

utilajul,
nu
am
putea
trage
la
răspundere
nici
robotul
«
înzestrat
».
Tot
urmând
acela
ș
i

ra
ț
ionament,
la
fel
cum
utilajul
nu
se
poate
bucura
de
drepturi,
nici
robotului
nu
îi

poate
fi
respectat
dreptul
înscris
în
articolul
10
al
Cartei
drepturilor
fundamentale
a

Uniunii
Europene.
Tocmai
pentru

cercetătorului
îi
este
respectat
dreptul
la

libertatea
con
ș
tiin
ț
ei,
per
a
contrario
robotului
nu
îi
poate
fi
respectat,
acesta
nefiind

decat
o
arhivă
cu
algoritmi
de
analiză.
Dacă
pornim
de
la
ipoteza

robotul
este

con
ș
tiin
ț
a
nemuritoare
a
cercetătorului,
ar
trebui

oferim
unui
obiect
aflat
de
altfel
în

circuitul
civil
probabil
cel
mai
de
pre
ț
lucru
:
libertate.
Ar
trebui

îi
oferim

personalitate
juridică,
ceea
ce,
în
ipoteza
noastră
ar
putea
implica
inclusiv
drepturi

politice,
cum
ar
fi
dreptul
de
vot
sau
dreptul
de
a
candida.
Acum,
dacă
nu
am
oferi

dreptul
de
a
candida
unui
mixer
de
bucărărie,
cum
am
putea
oferi
acest
drept
unui

robot, fie
ș
i « intelige nt ».

În
urma
analizei
anterioare,
nu
putem
ajunge
decât
la
concluzia

indiferent
de
cât
de

înzestrat
ar
fi
un
robot,
el
nu
va
putea
ajunge
la
a
fi
considerat
o
fiin
ț
ă
umană
cu

drepturi
ș
i
îndrituiri
ș
i
din
păcate
sau
din
fericire,
via
ț
a
fără
de
moarte
rămâne

apanajul fic
ț
iunii, iar tempus irreparabile fugit.

Similar Posts