i întreabă inginerii robotul. « Să trăie ș ti pentru totdeauna ». Acesta a fost răspunsul dat de [613040]
Inteligen
ț
a artificială
ș
i libertatea de con
ș
tiin
ț
ă
« Care este sensul vie
ț
ii ? » î
ș
i întreabă inginerii robotul. « Să trăie
ș
ti pentru
totdeauna ».
Acesta
a
fost
răspunsul
dat
de
robotul
creat
de
doi
ingineri
de
la
Google
care
au
introdus
26
de
milioane
de
replici
din
filme
într-o
re
ț
ea
neuronală
dând
na
ș
tere
unui
chatbot
care
extrage
singur
informa
ț
ii
din
acel
corpus
de
dialog
uman
ș
i
dobânde
ș
te
capacitatea
de
a
răspunde
la
întrebări
filosofice
folosind
algoritmi
probabilistici.
Răspunsul
prompt
al
robotului
la
întrebarea
care
chinuie
materia
cenu
ș
ie
umana
de
milenii
ne
face
inevitabil
să
ne
punem
următoarea
problemă
:
este
el
rezultatul
unui
proces
cognitiv
autonom
ș
i
propriu
ș
i
dacă
da,
se
bucură
de
libertatea
de
con
ș
tiin
ț
ă
ș
i
în consecin
ț
ă îi poate fi încălcat dreptul la aceasta?
Pentru
a
răspunde
la
aceste
întrebări
trebuie
mai
întâi
să
în
ț
elegem
conceptele
de
inteligen
ț
ă
artificială ,
machine
learning,
deep
learning
ș
i
care
este
în
fapt
rezultatul
utilizării lor.
Deep learning este un tip de machine learning, adică o tipologie de inteligen
ț
ă
artificială (AI), care permite unui computer să înve
ț
e din exemple, mai exact dintr-o
masă imensă de date introduse în prealabil. De exemplu, se pot introduce mii de
imagini pe care computerul va învă
ț
a sa le clasifice folosind tipare pe care le observă
singur. Cheia este faptul ca oamenii nu ii spun ce tipare să caute. Tehnologia de deep
learning copiază modul de func
ț
ionare a creierului uman flosind o re
ț
ea neuronala
artificială (ANN).
Această
re
ț
ea
func
ț
ionează
ca
un
filtru.
Datele
ini
ț
iale
sunt
introduse
apoi
pas
cu
pas
procesate
în
«
noduri
»
asemenea
circumvolu
ț
iunilor
din
creierul
uman.
După
ce
acest
proces
este
repetat,
calculatorul
revine
cu
un
răspuns
la
datele
introduse
ini
ț
ial.
Cu
cât
sunt
introduse
mai
multe
date
cu
atât
răspunsurile
vor
fi
mai
exacte,
mai
detaliate
ș
i
mai
complexe.
Astfel,
calculatorul
echipat
cu
deep
learning
va
putea
servi
ca
o
unealtă
foarte
utilă
în
func
ț
ie
de
datele
introduse.
El
nu
va
deveni
o
fiin
ț
ă
cu
propriile
păreri,
ci
doar
un
motor
de
căutare
care
găse
ș
te
răspunsuri
în
func
ț
ie
de
datele
introduse,
ca
un
stagiar
la
o
companie
care
nu
oferă
propria
opinie
despre
o
spe
ț
ă
ci
doar
rezumă
documentele
legale
citite,
aplicând
din
ele
doar
pasajele
referitoare
la
obiectul
cauzei.
Diferen
ț
a
este
că
stagiarul
are
o
părere
proprie
pe
care
nu
o
etalează,
pe când calculatorul rămâne mul
ț
umit cu răspunsul ini
ț
ial. De
ș
i el decide singur cu ce
tipar va analiza informa
ț
ia, în esen
ț
ă nu creează nimic ce nu a r putea fi dedus din
aceasta.
Eliza
este
un
chatbot
creat
în
anii
’60
la
MIT
de
către
programatorul
Joseph
Weizenbaum
pentru
a
imita
un
psiholog.
Existen
ț
a
ei
a
uimit
omenirea
ș
i
i-a
făcut
pe
cei
care
interac
ț
ionau
cu
ea
să
creadă
că
în
spatele
ecranului
negru
se
afla
o
fiin
ț
ă
în
adevăratul
sens
al
cuvântului,
cu
sentimente
ș
i
con
ș
tiin
ț
ă,
capabilă
de
empatie.
Weizenbaum
însă,
ș
i-a
privit
mereu
crea
ț
ia
ca
pe
un
«
truc
bun
de
utilizat
la
petreceri
»,
un
calculator
care
î
ț
i
răspunde
cu
un
ecou
al
propriilor
tale
cuvinte.
Ceea
ce
nu
a
realizat
el
a
fost
cât
de
u
ș
or
oamenii
au
devenit
convin
ș
i
de
iluzia
sim
ț
irii.
Omenirea
era
cucerită.
După
Eliza
au
urmat
Siri,
Alexa
ș
i
chiar
Barbie,
versiunea
mult-iubitei
păpu
ș
i capabilă acum să poarte un dialog mult mai avansat decât Eliza.
Faptul
că
putem
introduce
o
cantitate
infinită
de
date
într-un
calculator,
iar
acesta
va
răspunde
în
conformitate
cu
ele
la
orice
întrebare
îi
este
adresată,
deci
va
deveni
oglinda
respectivei
baze
de
date,
ne-a
adus
o
noua
întrebare
:
Ce
se
întâmplă
dacă
introducem
în
acea
bază
de
date
«
con
ș
tiin
ț
a
»
unui
om
?
Va
deveni
acel
robot
varianta
nemuritoare
a
lui
homo
sapiens
?
Da
ș
i
nu.
În
primul
rând
con
ș
tiin
ț
a
umană,
fiind
imposibil
de
materializat
în
întregime,
nu
poate
fi
introdusă
într-un
progrm.
Asta
se
datorează
în
special
faptului
ca
ea
se
află
într-o
continuă
schimbare,
creierul
uman
procesând
cantită
ț
i
incomensurabile
de
date
în
fiecare
secundă.
În
alte
cuvinte,
updatarea
con
ș
tiin
ț
ei
umane
e
mult
mai
rapidă
decât
vitez a
de
procesare
a
oricărui
program,
astfel
fiind
imposibil
de
stocat.
Ceea
ce
se
poate
face
este
introducerea
a
cât
mai
multe
date
despre
o
persoană,
creându-se
un
soi
de
arhivă
interactivă
personală.
Rezultatul
însă
nu
va
fi
varianta
nemuritoare
a
persoanei
în
cauză,
ci
mai
degrabă
un
fel
de
interviu
interactiv
cu
aceasta
dintr-un
moment
al
vie
ț
ii
sale.
Ce
nu
am
putea
ob
ț
ine
însă
este
o
variantă
evoluată
a
acelei
persoane,
deoarece
de
ș
i
ar
putea
răspunde
la noi evenimente, nu s-ar putea schimba fundamental la fel ca persoana reală.
În
practică,
daca
X
care
a
avut
o
dietă
nerestric
ț
ionată
toată
via
ț
a
ar
putea
fi
convins
să
devină
vegetarian
după
urmărirea
unui
documentar
despre
fermele
industriale,
calculatorul
în
care
au
fost
introduse
datele
despre
X
anterior
vizionării
documentarului
nu
este
capabil
în
mod
neechivoc
de
aceea
ș
i
schimbare.
Asta
se
datorează
în
special
faptului
că
spre
deosebire
de
calculatoare
care
func
ț
ioneaza
cu
algoritmi bine stabili
ț
i
ș
i cu o structură clară, oamenii sunt im previzibili.
Totu
ș
i, ob
ț
inerea variantei nemuritoare a cuiva drag a devenit foarte tentantă pentru
mul
ț
i.
Eugenia
Kuyda,
software
developper
din
SUA
a
dezvoltat
un
astfel
de
chatbot
introducând
mesajele
pe
care
ș
i
le
trimisese
cu
răposatul
ei
prieten
Roman
Mazurenko.
Rezultatul
a
fost
un
calculator
care
îi
răspundea
cu
acelea
ș
i
tipare
verbale
ale
prietenului
ei,
care
ș
tia
tot
ce
ace
ș
tia
discutasera
în
mesaj e
ș
i
putea
face
referin
ț
ă
la
diferite
evenimente
ș
i
chiar
da
sfaturi
pe
baza
lor.
De
exemplu,
la
întrebarea
«
Cine
e
cel
mai
bun
prieten
al
tau
?
»
robotul
a
răspuns
«
Nu
î
ț
i
arăta
nesiguran
ț
ele
»,
un
răspuns tipic domnului Mazurenko după spusele Eugeniei.
Nu
se
poate
argumenta
că
acest
robot
are
o
con
ș
tiin
ț
ă
proprie
ș
i
poate
cere
respectarean
acesteia,
deoarece
universul
său
cuprinde
doar
acel
set
limitat
de
mesaje,
« ideile » sale fiind dependente de acea sursă insuficientă.
Mult
mai
departe
a
mers
însă
James
Vlahos,
un
jurnalist
pasionat
de
IT
care
a
încercat
să
îi
ofere
tatalui
sau
bolnav
de
cancer
nemurire
artificială.
El
a
introdus
în
baza
de
date
a
robotului
interviuri
ample
cu
tatal
sau,
ajungând
la
un
numar
impresionant
de
91.970
de
cuvinte.
Atingând
subiecte
de
la
copilăria
lui
în
Grecia
până
la
umor,
opinii
politice
ș
i
valori
a
reu
ș
it
să
ob
ț
ină
un
prototip
func
ț
ional
cu
care
să
poată
să
poarte
o
conversa
ț
ie
care
simu leză
aproape
perfect
conversa
ț
iile
purtate
cu
tatăl
său.
Totu
ș
i,
el
a
spus
că
pe
măsură
ce
boala
tatălui
său
înainta,
progresele
robotului
deveneau
din
ce
în
ce
mai
dureroase
ș
i
greu
de
acceptat
pentru
familie,
declarând
ca
acum
ar
putea
vorbi
cu
robotul,
însă
nu
ș
tie
dacă
ar
mai
dori.
Robotul
supranumit
«
Dadbot
»
ar
putea
fi
util
însă
nepo
ț
ilor
care
nu
au
apucat
să
audă
toate
pove
ș
tile
bunicului
lor,
servind asemenea unei arhive personale interactive.
Tocmai
această
utilizare
a
Inteligen
ț
ei
Artificiale
se
va
dovedi
in
opinia
mea
cea
mai
utilă.
Dacă
extrapolăm
scopul
sentimental
al
dadbotului
ș
i
îl
aplicăm
unui
alt
scenariu
mult
mai
pragmatic,
ajungem
într-o
situa
ț
ie
complet
diferită
ce
ar
putea
pune
probleme
de
ordin
juridic.
Dacă
în
loc
de
pove
ș
tile
de
via
ț
ă
ale
unui
bunic
introducem
ra
ț
ionamentele,
cuno
ș
tin
ț
ele,
ideile
ș
i
experien
ț
ele
unui
om
de
ș
tiin
ț
ă,
în
teorie
robotul
ar
putea
realiza
inven
ț
ii
ș
i
inova
ț
ii
de
unul
singur.
Una
din
dilemele
care
apar
este
aceea
a
drepturilor
de
autor.
O
a
doua
problemă
este
de
natură
etică
:
dacă
omul
de
ș
tiin
ț
ă
ar
fi
putut
inventa
un
obiect,
dar
ar
fi
ales
să
nu
materializeze
inten
ț
ia,
este
moral
ca
robotul
să
expună
respectiva
inven
ț
ie
ca
fiind
parte
a
con
ș
tiin
ț
ei
sale
?
Ma
ș
inăria,
neavând
personalitate
juridică,
nu
poate
fi
trasă
la
răspundere
pentru
eventualele
implica
ț
ii
nefaste
ale
inven
ț
iei
de
care
în
lipsa
unor
mo
ș
tenitori
s-ar
putea
folosi
cel
mai
probabil
statul
a
cărei
cetă
ț
enii
o
avea
defunctul.
Putem
argumenta
acum, complicând
ș
i mai mult dilema legală, că robotul nu are cetă
ț
enie
ș
i ca inven
ț
ia
îi apar
ț
ine lui. Cum a r putea însă să îi apar
ț
ină inven
ț
ia când a ajuns la ea numai
deoarece i-au fost puse la dispozi
ț
ie datele cercetătorului ?
Oricât
de
tentant
ar
fi
să
continuăm
să
construim
scenarii
ipotetice
demne
de
Isaac
Asimov,
trebuie
să
clarificăm
ni
ș
te
lucruri.
Robotul,
oricât
de
bine
informat
ar
fi,
nu
este
altceva
decât
o
unealtă,
un
mijloc
de
facilitare
pentru
posesorii
lui.
Astfel,
robotul
trebuie
să
aibă
un
posesor,
un
curator
care
să
îl
între
ț
ină.
La
fel
cum
în
cazul
în
care
dacă
un
utilaj
de
construc
ț
ii
cade
pe
un
muncitor
nu
putem
trage
la
răspundere
utilajul,
nu
am
putea
trage
la
răspundere
nici
robotul
«
înzestrat
».
Tot
urmând
acela
ș
i
ra
ț
ionament,
la
fel
cum
utilajul
nu
se
poate
bucura
de
drepturi,
nici
robotului
nu
îi
poate
fi
respectat
dreptul
înscris
în
articolul
10
al
Cartei
drepturilor
fundamentale
a
Uniunii
Europene.
Tocmai
pentru
că
cercetătorului
îi
este
respectat
dreptul
la
libertatea
con
ș
tiin
ț
ei,
per
a
contrario
robotului
nu
îi
poate
fi
respectat,
acesta
nefiind
decat
o
arhivă
cu
algoritmi
de
analiză.
Dacă
pornim
de
la
ipoteza
că
robotul
este
con
ș
tiin
ț
a
nemuritoare
a
cercetătorului,
ar
trebui
să
oferim
unui
obiect
aflat
de
altfel
în
circuitul
civil
probabil
cel
mai
de
pre
ț
lucru
:
libertate.
Ar
trebui
să
îi
oferim
personalitate
juridică,
ceea
ce,
în
ipoteza
noastră
ar
putea
implica
inclusiv
drepturi
politice,
cum
ar
fi
dreptul
de
vot
sau
dreptul
de
a
candida.
Acum,
dacă
nu
am
oferi
dreptul
de
a
candida
unui
mixer
de
bucărărie,
cum
am
putea
oferi
acest
drept
unui
robot, fie
ș
i « intelige nt ».
În
urma
analizei
anterioare,
nu
putem
ajunge
decât
la
concluzia
că
indiferent
de
cât
de
înzestrat
ar
fi
un
robot,
el
nu
va
putea
ajunge
la
a
fi
considerat
o
fiin
ț
ă
umană
cu
drepturi
ș
i
îndrituiri
ș
i
din
păcate
sau
din
fericire,
via
ț
a
fără
de
moarte
rămâne
apanajul fic
ț
iunii, iar tempus irreparabile fugit.
Copyright Notice
© Licențiada.org respectă drepturile de proprietate intelectuală și așteaptă ca toți utilizatorii să facă același lucru. Dacă consideri că un conținut de pe site încalcă drepturile tale de autor, te rugăm să trimiți o notificare DMCA.
Acest articol: i întreabă inginerii robotul. « Să trăie ș ti pentru totdeauna ». Acesta a fost răspunsul dat de [613040] (ID: 613040)
Dacă considerați că acest conținut vă încalcă drepturile de autor, vă rugăm să depuneți o cerere pe pagina noastră Copyright Takedown.
