Inteligenta artificiala [613043]
Inteligenta artificiala
ș
i con
ș
tiin
ț
a umană
Human consciousness is a tragic misstep in evolution. We became too self-aware.
1
Con
ș
tiin
ț
a
umana
a
fost
ș
i
este
o
dezbatere
continua
a
omeniri
încă
de
la
începutul
con
ș
tietizării
existen
ț
ei
unui
sine,
a
unui
ego.
Con
ș
tientizarea
faptului
ca
eu
exist
nu
ca
o
parte
dintr-un
mecanism
social
reproductiv,
ci
ca
un
întreg
mecanism
independent,
cu
gânduri,
aspira
ț
ii
ș
i
dileme
la
care
nu
voi
avea
un
răspuns
niciodată.
Un
conglomerat
de
materie
biologică
care,
prin
impulsuri electrice, ajunge să-
ș
i pună întrebări asupra motivelor existen
ț
ei sale.
Începutul
acestui
paragraf
este
deja
unul
cli
ș
eic.
Scopul
acestei
lucrări
nu
este
de
a
elucida
misterele
min
ț
ii
umane,
fiindcă
dacă
omenirea
nu
a
reu
ș
it
să
o
facă
până
acum,
nici
o
lucrare
de
patru pagini nu o va face.
Ș
i
tocmai
aici
este
problema.
A
încerca
să
creezi
o
formă
artificiala
a
inteligen
ț
ei
umane
este
imposibil
atunci
când
nu
ș
ti
încă
în
totalitate
cum
func
ț
ionează
aceasta
inteligen
ț
ă
pe
care
încerci
să
o
reproduci.
Aceasta
ipoteza
poate
duce
doar
la
două
rezultate:
fie
că
omenirea
nu
va
reu
ș
i
niciodată
sa
reproducă
inteligen
ț
a
umană,
fie
că
daca
am
reu
ș
i
sa
creăm
un
program
care
să
imite
perfect
modul
de
ra
ț
ionalizare
uman,
acel
program
nu
ar
fi
cu
nimic
mai
pu
ț
in
decât
o
fiin
ț
ă
umană (probabil fără un înveli
ș
organic, dar partea asta e probabil cea mai u
ș
or de replicat).
Să
începem,
deci,
cu
începutul:
inteligen
ț
a
este
indisolubil
legată
de
con
ș
tiin
ț
a
umană
–
perspectiva
noastră
asupra
lumii
dar
ș
i
asupra
propriei
persoane
ș
i
experien
ț
ele
anterioare
ne
influen
ț
ează
deciziile.
Iar
prospectul
unei
inteligen
ț
e
artificiale
care
ia
decizii
bune
din
punct
de
vedere
obiectiv
este
cel
pu
ț
in
atrăgător,
din
multiple
motive:
o
productivitate
mărită,
mai
pu
ț
ină
„eroare umană”, o lipsă a prejudecă
ț
ilor.
Eroarea umană
Eroarea
umană
este
cauza
principală
a
accidentelor,
fie
că
vorbim
de
accidente
la
locul
de
muncă
sau
de
accidente
rutiere.
E
o
perspectivă
conform
căreia
sistemele
complexe
nu
pot
fi
făcute
să
func
ț
ioneze
la
capacitate
maximă,
indiferent
de
câte
reguli
ș
i
reglementări
ar
exista,
fiindcă
întotdeauna
un
individ
din
acel
sistem
nu
le
va
respecta.
Fiin
ț
ele
umane
nu
pot
func
ț
iona
la
capacitate
maximă
aproape
niciodată,
iar
în
situa
ț
iile
excep
ț
ionale
în
care
o
fac,
doar
pe
perioade
scurte
de
timp.
Pornind
de
aici,
este
natural
ca
aten
ț
ia
să
se
îndrepte
înspre
un
program
care
a.
Întotdeauna
va
func
ț
iona
la
capacitate
maximă,
fiindcă
nu
va
fi
niciodată
obosit
ș
i
b.
Care
întotdeauna
va
urma
regulile
după
care
a
fost
programat.
Dacă
am
avea
doar
ma
ș
ini
care
se
conduc
singure,
toate
fiind
conectate
la
o
re
ț
ea
principala,
toate
urmând
acelea
ș
i
reguli
fără
să-
ș
i
asume riscuri, probabil nu ar mai exista accidente rutiere sau ambuteiaje.
1
True detective, sezonul 1
Asumarea riscurilor în procesul decizional
Asumarea
riscurilor
este
o
caracteristică
foarte
umană,
înseamnă
că,
de
ș
i
ș
ansele
de
reu
ș
ită
sunt
sub-optime,
în
continuare
decidentul
ia
acea
decizie,
pentru
a
avea
un
câ
ș
tig
mai
mare.
Domeniile
care
nu
pot
fi
automatizate
sunt
în
general
acelea
unde
asumarea
riscurilor
este
o
parte
relevantă
în
luarea
deciziilor
–
un
doctor
care,
pe
baza
instinctului,
alege
să
trateze
o
posibilă
boală
mai
pu
ț
in
întalnită ,
de
ș
i
nu
are
timp
să
treacă
prin
două
planuri
de
tratament;
un
avocat
care
preia
un
caz
de
ș
i
ș
tie
că
ș
ansele
de
reu
ș
ită
sunt
foarte
mici.
Întrebarea
este,
cum
programezi
un
software
să-
ș
i
asume
riscuri.
Îl
programezi
ca
la
fiecare
două
decizii
safe
să
ia
o
decizie
riscantă?
Dacă
i-ai
seta
doar
o
limită
a
probabilită
ț
ii
peste
care
el
să
nu
ia
decizia,
fiind
mult
prea
riscantă,
asta
tot
nu
ar
fi
o
decizie
autentică
a
programului,
ci
a
omului
din
spate.
Nu,
de
aici
lipse
ș
te ceva…
Problema
cea
mai
mare
este
că
în
via
ț
a
reală
foarte
rar
există
decizii
absolut
corecte
ș
i
absolut
gre
ș
ite.
Faimoasa
trolley
problem
ne
arată
asta:
la
ș
i
5
oameni
să
fie
uci
ș
i
sau
intervi
ș
i
ucizi
doar
unul?
Aici
nu
există
un
raspuns
absolut
corect.
Ipotetic
avem
un
program
care
e
setat
să
urmeze
două
reguli
principale:
să
ia
decizia
care
din
punct
de
vedere
utilitarian
sa
ducă
la
rezultatul
cel
mai
favorabil
(deci
sa
aleagă
să
ucidă
o
persoană
pentru
ca
5
să
supravie
ț
uiască)
ș
i
niciodată
să
nu
provoace
prin
interventia
sa
un
rău
unei
fiin
ț
e
umane,
atunci
este
clar
ca
programul
este
pus
în
fa
ț
a
unei
decizii
imposib ile
care
probabil
i-ar
prăji
hardware-ul.
Singurul
mod
în
care
programul
poate
lua
o
decizie
este
ca
el
să
aiba
libertatea
de
a
încălca
una
dintre
reguli.
Ș
i
iată
cum
ne
întoarcem
la
conceptul
erorii
umane
(artificiale,
în
cazul
de
fa
ț
ă),
fiindcă
aici,
într-un
mod
absolut aleatoriu, programul va lua o decizie care poate duce ulterior la un rezultat sub-optim.
Personal,
concluzionez
că
dacă
am
crea
un
program
care
să
înve
ț
e
din
experien
ț
a
sa
astfel
încât
să
poată
mima
intui
ț
ia,
care
să
aibă
libertatea
de
a-
ș
i
asuma
riscuri,
imitând
astfel
ra
ț
ionalizarea
umană, nu ar fi cu mult mai eficient decât o persoană reală.
În
ipoteza
improbabilă
în
care
o
astfel
de
realizare
ar
fi
dusă
la
capăt
ș
i
un
program
ar
imita
perfect
inteligen
ț
a
umană ,
ea
probabil
ar
fi
răvă
ș
ită
de
acelea
ș
i
probleme
ca
mintea
umană.
Over
thinking-ul,
sindromul
impostorului
ș
i
alte
astfel
de
piedici
în
luarea
unei
decizii
complet
ra
ț
ionale.
Să
nu
mai
spunem
de
relevan
ț
a
pe
care
o
au
sentime ntele
în
luarea
unei
decizii.
Nu
putem
imita
con
ș
tiin
ț
a
umană
fără
să
programăm
software-ul
să
simtă.
Poate
că
programul
nostru,
covâr
ș
it
de
sentim entul
de
vinovă
ț
ie
din
cauza
e
ș
ecului
de
la
ultima
decizie
riscantă
pe
care
a
luat-o,
nu
va
mai
lua
niciodată
o
alta
decizie
care
nu
este
100%
sigură.
Iar
dacă
oamenii
au
reu
ș
it
să-
ș
i
creeze
moduri
în
care
să
treacă
sau
să-
ș
i
recapete
speran
ț
a,
prin
religie
spre
exemplu,
dilema este dacă
ș
i un sof tware va putea să facă acela
ș
i lucru.
Mai
mult,
din
punct
de
vedere
legal,
dacă
programul
nostru
ajunge
să
î
ș
i
con
ș
tientizeze
propria
existen
ț
ă,
se
pune
proble ma
dacă
îi
acordăm
sau
nu
acelea
ș
i
drepturi
ca
unei
fiin
ț
e
umane.
Ba
chiar
ș
i mai important, da ca încalcă regulile, cum pedepse
ș
ti legal un program?
Problema
drepturilor
pe
care
am
putea
să
le
acordam
unui
software
este
mai
de
actualitate
decât
intuim.
Spre
exemplu,
cazul
faimo
ș
ilor
bo
ț
i
care
sunt
folosi
ț
i
de
organele
de
ordine
din
SUA
pentru
a
prinde
infractori
ce
abuzează
minori
(ace
ș
ti
bo
ț
i
ac
ț
ionând
pe
platforme
de
chatting
ș
i
atrăgând
posibile
persoane
care
racolează
minori).
Dacă
am
putea
prelua
astfel
de
software-uri
în
portofoliul
organelor
de
ordine
din
România,
am
avea
o
problemă
destul
de
mare:
nu
am
putea
condamna
persoanele
care
au
comis
infrac
ț
iunea
de
racolare
a
minorilor
în
scopuri
sexuale
spre
exemplu,
pentru
că
nu
am
avea
o
victimă
propriu
zisă.
Acel
software,
nefiind
o
persoană
în
sens
juridic,
nu
poate
fi
nici
victimă,
ceea
ce
înseamnă
ca
această
infrac
ț
iune
nu
este
decât
una
putativă.
Minunata Lume Nouă
Dar
să
spunem
că
nu
încercăm
să
recreem
con
ș
tiin
ț
a
umană
de
la
zero;
să
ne
imaginăm
o
lume
nouă
în
care
putem
uploada
con
ș
tiin
ț
a
umană
într-un
cloud
unde
sa
existe
ș
i
să
continue
să
se
dezvolte
pentru
eternitate,
practic,
exact
ca
în
San
Junipero.
Posibilită
ț
ile
ar
fi
infinite,
oameni
de
ș
tiin
ț
ă
care
să
continue
sa
contribuie
la
cercetările
ș
tiin
ț
ifice,
filosofi
care
să
continue
sa
filosofeze
pe
baza
nu
unei
experien
ț
e
de
via
ț
ă
de
70
de
ani,
ci
de
sute.
Persoane
cu
dizabilită
ț
i
care ar avea o a doua
ș
ansă la a experimenta via
ț
a la fel ca ceilal
ț
i.
Sau
a
ș
a
am
crede.
Motiv ul
pentru
care
oamenii
reu
ș
esc
să
găsească
un
scop
ș
i
să
găsească
ș
i
să
aprecieze
fericirea
este
fiindcă
există
un
T
minus
unde
via
ț
a
se
opre
ș
te.
Fiindcă
exista
consecin
ț
e
ale
ac
ț
iunilor
tale
ș
i
există
momente
triste
care,
puse
în
balan
ț
ă,
te
fac
să
apreciezi
momentele
bune.
Ori,
într-un
loc
virtual
unde
nu
există
consecin
ț
e
ș
i
unde
este
suficient
timp
pentru
ca
orice
gre
ș
eală
să
fie
uitată
de
ceilal
ț
i
locuitori
ai
cloud-ului,
nu
există
niciun
motiv
ra
ț
ional
pentru
ca
oamenii,
sau
con
ș
tiin
ț
a
lor
uploadată,
să
încerce
sa
evolueze,
să
fie
mai
buni.
In
Minunata
Lume
Nouă
a
lui
Huxley
se
prezintă
acela
ș
i
concept
–
totul
este
perfect
pentru
toată
lumea,
nu
există
sentimente
prea
puternice,
nimeni
nu
trebuie
să
se
lupte
pentru
nimic;
ș
i
totu
ș
i,
soma
era
consumat
fără
discriminare
de
to
ț
i
locuitorii
lumii
noi.
Cercetătorii
de
care
vorbeam
un
paragraf
mai
sus
nu
pare
că
au
un
motiv
să
ajute
omenirea
prin
cercetările
lor.
Toate
sistemele
filosofice
ș
i
morale
de
acum
sunt
bazate
pe
existen
ț
a
unui
interval
finit
de
timp
în
care
po
ț
i
impacta
mediul
din
jurul
tău.
Oamenii
nu
ar
fi
pregăti
ț
i
pentru
imortalitate.
Mai
mult,
dacă
un
individ
ar
ș
ti
că
există
un
spa
ț
iu
în
care,
ipotetic,
nu
există
suferin
ț
ă,
care
ar
fi
motivul
pentru
care
ar
continua
să
rămână în lumea fizică? Nu pare că există unul.
Mai
mult,
daca
con
ș
tiin
ț
a
unei
persoane
poate
fi
incărcată
într-u n
cloud,
înseamnă
că
poate
fi
de
asemenea
înregistrată,
accesată
ș
i
copiată.
Iar
copierea
personalită
ț
ii
unei
persoane
este
mult
mai
rea
decât
pare.
Pe
lângă
toate
problemele
de
încălcare
a
intimită
ț
ii
personale
(căci
ce
poate
fi
mai
intim
decât
întreaga
ta
personalitate
ș
i
toate
gândurile
tale?),
o
copie
a
personalită
ț
ii
umane
poate
primi
acelea
ș
i
drepturi
ca
originalul?
Dacă
nu,
atunci
este
acceptabilă
supunerea
copiei
la
tratamente
inumane?
Spre
exemplu,
daca
ar
exista
un
spa
ț
iu
virtual
atunci
probabil
creatorul
ar
putea avea posibilitatea de a modifica spa
ț
iul
ș
i chiar trecerea timpului din respectivul univers
virtual, iar posibilita
ț
ile de a tortura psihologic o fiin
ț
ă umană, sau copia unei con
ș
tiin
ț
e umane,
sunt infinite.
Odată
cu
dezvoltarea
tehnologiei
ș
i
a
Inteligen
ț
ei
Artificiale,
ș
i
perspectiva
asupra
înfăptuirii
justi
ț
iei
se
schimbă.
Se
pune
deja
accent
pe
justi
ț
ia
preventivă,
sau
moduri
de
a
prinde
posibili
infractori
înainte
ca
ei
să
comită
infrac
ț
iunile,
fie
că
vorbim
de
chat-bots
sau
de
programe
care
analizeaza
infrac
ț
ionalita tea
ș
i
probabilitatea
comiterii
unei
infra c
ț
iuni
în
viitor
din
anumite
zone
geografice,
astfel
încât
mai
multe
for
ț
e
de
ordine
să
fie
trimise
acolo.
Cu
siguran
ț
ă
o
astfel
de
tehnologie
ar
duce
la
o
accentuare
a
acestui
tip
de
justi
ț
ie,
fapt
ce
poate
pune
probleme
etice
ș
i
de
drepturi
ale
omului.
Mai
mult,
posibilitatea
imortalită
ț
ii
ar
putea
schimba
perspectiva
asupra
institu
ț
iei închisorii pe via
ț
ă.
Nu
ș
tim
cât
de
departe
vom
putea
ajunge
în
acest
progres
tehnologic,
fiindcă
tot
ș
irul
analziei
din
această
lucrare
ne
dă
mai
multe
întrebări
decât
răspunsuri,
însă
ceea
ce
ș
tim
sigur
este
că
va
trebui
să
revizuim
întreaga
noastră
viziune
atât
asupra
inteligen
ț
ei
artificiale,
dar
ș
i
asupra
modului în care consacrăm drepturile umane.
Copyright Notice
© Licențiada.org respectă drepturile de proprietate intelectuală și așteaptă ca toți utilizatorii să facă același lucru. Dacă consideri că un conținut de pe site încalcă drepturile tale de autor, te rugăm să trimiți o notificare DMCA.
Acest articol: Inteligenta artificiala [613043] (ID: 613043)
Dacă considerați că acest conținut vă încalcă drepturile de autor, vă rugăm să depuneți o cerere pe pagina noastră Copyright Takedown.
