Inteligenta artificiala [613043]

Inteligenta artificiala
ș
i con
ș
tiin
ț
a umană

Human consciousness is a tragic misstep in evolution. We became too self-aware.

1

Con
ș
tiin
ț
a
umana
a
fost
ș
i
este
o
dezbatere
continua
a
omeniri
încă
de
la
începutul
con
ș
tietizării

existen
ț
ei
unui
sine,
a
unui

ego.

Con
ș
tientizarea
faptului
ca

eu

exist
nu
ca
o
parte
dintr-un

mecanism
social
reproductiv,
ci
ca
un
întreg
mecanism
independent,
cu
gânduri,
aspira
ț
ii
ș
i

dileme
la
care
nu
voi
avea
un
răspuns
niciodată.
Un
conglomerat
de
materie
biologică
care,
prin

impulsuri electrice, ajunge să-
ș
i pună întrebări asupra motivelor existen
ț
ei sale.

Începutul
acestui
paragraf
este
deja
unul
cli
ș
eic.
Scopul
acestei
lucrări
nu
este
de
a
elucida

misterele
min
ț
ii
umane,
fiindcă
dacă
omenirea
nu
a
reu
ș
it

o
facă
până
acum,
nici
o
lucrare
de

patru pagini nu o va face.

Ș
i
tocmai
aici
este
problema.
A
încerca

creezi
o
formă
artificiala
a
inteligen
ț
ei
umane
este

imposibil
atunci
când
nu
ș
ti
încă
în
totalitate
cum
func
ț
ionează
aceasta
inteligen
ț
ă
pe
care
încerci


o
reproduci.
Aceasta
ipoteza
poate
duce
doar
la
două
rezultate:
fie

omenirea
nu
va
reu
ș
i

niciodată
sa
reproducă
inteligen
ț
a
umană,
fie

daca
am
reu
ș
i
sa
creăm
un
program
care

imite

perfect
modul
de
ra
ț
ionalizare
uman,
acel
program
nu
ar
fi
cu
nimic
mai
pu
ț
in
decât
o
fiin
ț
ă

umană (probabil fără un înveli
ș
organic, dar partea asta e probabil cea mai u
ș
or de replicat).


începem,
deci,
cu
începutul:
inteligen
ț
a
este
indisolubil
legată
de
con
ș
tiin
ț
a
umană

perspectiva
noastră
asupra
lumii
dar
ș
i
asupra
propriei
persoane
ș
i
experien
ț
ele
anterioare
ne

influen
ț
ează
deciziile.
Iar
prospectul
unei
inteligen
ț
e
artificiale
care
ia
decizii
bune
din
punct
de

vedere
obiectiv
este
cel
pu
ț
in
atrăgător,
din
multiple
motive:
o
productivitate
mărită,
mai
pu
ț
ină

„eroare umană”, o lipsă a prejudecă
ț
ilor.

Eroarea umană

Eroarea
umană
este
cauza
principală
a
accidentelor,
fie

vorbim
de
accidente
la
locul
de
muncă

sau
de
accidente
rutiere.
E
o
perspectivă
conform
căreia
sistemele
complexe
nu
pot
fi
făcute

func
ț
ioneze
la
capacitate
maximă,
indiferent
de
câte
reguli
ș
i
reglementări
ar
exista,
fiindcă

întotdeauna
un
individ
din
acel
sistem
nu
le
va
respecta.
Fiin
ț
ele
umane
nu
pot
func
ț
iona
la

capacitate
maximă
aproape
niciodată,
iar
în
situa
ț
iile
excep
ț
ionale
în
care
o
fac,
doar
pe
perioade

scurte
de
timp.
Pornind
de
aici,
este
natural
ca
aten
ț
ia

se
îndrepte
înspre
un
program
care
a.

Întotdeauna
va
func
ț
iona
la
capacitate
maximă,
fiindcă
nu
va
fi
niciodată
obosit
ș
i
b.
Care

întotdeauna
va
urma
regulile
după
care
a
fost
programat.
Dacă
am
avea
doar
ma
ș
ini
care
se

conduc
singure,
toate
fiind
conectate
la
o
re
ț
ea
principala,
toate
urmând
acelea
ș
i
reguli
fără
să-
ș
i

asume riscuri, probabil nu ar mai exista accidente rutiere sau ambuteiaje.

1

True detective, sezonul 1

Asumarea riscurilor în procesul decizional

Asumarea
riscurilor
este
o
caracteristică
foarte
umană,
înseamnă
că,
de
ș
i
ș
ansele
de
reu
ș
ită
sunt

sub-optime,
în
continuare
decidentul
ia
acea
decizie,
pentru
a
avea
un

ș
tig
mai
mare.

Domeniile
care
nu
pot
fi
automatizate
sunt
în
general
acelea
unde
asumarea
riscurilor
este
o
parte

relevantă
în
luarea
deciziilor

un
doctor
care,
pe
baza
instinctului,
alege

trateze
o
posibilă

boală
mai
pu
ț
in
întalnită ,
de
ș
i
nu
are
timp

treacă
prin
două
planuri
de
tratament;
un
avocat

care
preia
un
caz
de
ș
i
ș
tie

ș
ansele
de
reu
ș
ită
sunt
foarte
mici.
Întrebarea
este,
cum
programezi

un
software
să-
ș
i
asume
riscuri.
Îl
programezi
ca
la
fiecare
două
decizii
safe

ia
o
decizie

riscantă?
Dacă
i-ai
seta
doar
o
limită
a
probabilită
ț
ii
peste
care
el

nu
ia
decizia,
fiind
mult
prea

riscantă,
asta
tot
nu
ar
fi
o
decizie
autentică
a
programului,
ci
a
omului
din
spate.
Nu,
de
aici

lipse
ș
te ceva…

Problema
cea
mai
mare
este

în
via
ț
a
reală
foarte
rar
există
decizii
absolut
corecte
ș
i
absolut

gre
ș
ite.
Faimoasa
trolley
problem
ne
arată
asta:
la
ș
i
5
oameni

fie
uci
ș
i
sau
intervi
ș
i
ucizi
doar

unul?
Aici
nu
există
un
raspuns
absolut
corect.
Ipotetic
avem
un
program
care
e
setat

urmeze

două
reguli
principale:

ia
decizia
care
din
punct
de
vedere
utilitarian
sa
ducă
la
rezultatul
cel

mai
favorabil
(deci
sa
aleagă

ucidă
o
persoană
pentru
ca
5

supravie
ț
uiască)
ș
i
niciodată

nu
provoace
prin
interventia
sa
un
rău
unei
fiin
ț
e
umane,
atunci
este
clar
ca
programul
este
pus
în

fa
ț
a
unei
decizii
imposib ile
care
probabil
i-ar
prăji
hardware-ul.
Singurul
mod
în
care
programul

poate
lua
o
decizie
este
ca
el

aiba
libertatea
de
a

încălca

una
dintre
reguli.
Ș
i
iată
cum
ne

întoarcem
la
conceptul
erorii
umane
(artificiale,
în
cazul
de
fa
ț
ă),
fiindcă
aici,
într-un
mod

absolut aleatoriu, programul va lua o decizie care poate duce ulterior la un rezultat sub-optim.

Personal,
concluzionez

dacă
am
crea
un
program
care

înve
ț
e
din
experien
ț
a
sa
astfel
încât


poată
mima
intui
ț
ia,
care

aibă
libertatea
de
a-
ș
i
asuma
riscuri,
imitând
astfel
ra
ț
ionalizarea

umană, nu ar fi cu mult mai eficient decât o persoană reală.

În
ipoteza
improbabilă
în
care
o
astfel
de
realizare
ar
fi
dusă
la
capăt
ș
i
un
program
ar
imita

perfect
inteligen
ț
a
umană ,
ea
probabil
ar
fi
răvă
ș
ită
de
acelea
ș
i
probleme
ca
mintea
umană.
Over

thinking-ul,
sindromul
impostorului
ș
i
alte
astfel
de
piedici
în
luarea
unei
decizii
complet

ra
ț
ionale.

nu
mai
spunem
de
relevan
ț
a
pe
care
o
au
sentime ntele
în
luarea
unei
decizii.
Nu

putem
imita
con
ș
tiin
ț
a
umană
fără

programăm
software-ul

simtă.
Poate

programul

nostru,
covâr
ș
it
de
sentim entul
de
vinovă
ț
ie
din
cauza
e
ș
ecului
de
la
ultima
decizie
riscantă
pe

care
a
luat-o,
nu
va
mai
lua
niciodată
o
alta
decizie
care
nu
este
100%
sigură.
Iar
dacă
oamenii
au

reu
ș
it
să-
ș
i
creeze
moduri
în
care

treacă
sau
să-
ș
i
recapete
speran
ț
a,
prin
religie
spre
exemplu,

dilema este dacă
ș
i un sof tware va putea să facă acela
ș
i lucru.

Mai
mult,
din
punct
de
vedere
legal,
dacă
programul
nostru
ajunge

î
ș
i
con
ș
tientizeze
propria

existen
ț
ă,
se
pune
proble ma
dacă
îi
acordăm
sau
nu
acelea
ș
i
drepturi
ca
unei
fiin
ț
e
umane.
Ba

chiar
ș
i mai important, da ca încalcă regulile, cum pedepse
ș
ti legal un program?

Problema
drepturilor
pe
care
am
putea

le
acordam
unui
software
este
mai
de
actualitate
decât

intuim.
Spre
exemplu,
cazul
faimo
ș
ilor

bo
ț
i

care
sunt
folosi
ț
i
de
organele
de
ordine
din
SUA

pentru
a
prinde
infractori
ce
abuzează
minori
(ace
ș
ti
bo
ț
i
ac
ț
ionând
pe
platforme
de
chatting
ș
i

atrăgând
posibile
persoane
care
racolează
minori).
Dacă
am
putea
prelua
astfel
de
software-uri
în

portofoliul
organelor
de
ordine
din
România,
am
avea
o
problemă
destul
de
mare:
nu
am
putea

condamna
persoanele
care
au
comis
infrac
ț
iunea
de
racolare
a
minorilor
în
scopuri
sexuale
spre

exemplu,
pentru

nu
am
avea
o
victimă
propriu
zisă.
Acel
software,
nefiind
o
persoană
în
sens

juridic,
nu
poate
fi
nici
victimă,
ceea
ce
înseamnă
ca
această
infrac
ț
iune
nu
este
decât
una

putativă.

Minunata Lume Nouă

Dar

spunem

nu
încercăm

recreem
con
ș
tiin
ț
a
umană
de
la
zero;

ne
imaginăm
o
lume

nouă
în
care
putem
uploada
con
ș
tiin
ț
a
umană
într-un
cloud
unde
sa
existe
ș
i

continue

se

dezvolte
pentru
eternitate,
practic,
exact
ca
în
San
Junipero.
Posibilită
ț
ile
ar
fi
infinite,
oameni
de

ș
tiin
ț
ă
care

continue
sa
contribuie
la
cercetările
ș
tiin
ț
ifice,
filosofi
care

continue
sa

filosofeze
pe
baza
nu
unei
experien
ț
e
de
via
ț
ă
de
70
de
ani,
ci
de
sute.
Persoane
cu
dizabilită
ț
i

care ar avea o a doua
ș
ansă la a experimenta via
ț
a la fel ca ceilal
ț
i.

Sau
a
ș
a
am
crede.
Motiv ul
pentru
care
oamenii
reu
ș
esc

găsească
un
scop
ș
i

găsească
ș
i

aprecieze
fericirea
este
fiindcă
există
un
T
minus
unde
via
ț
a
se
opre
ș
te.
Fiindcă
exista
consecin
ț
e

ale
ac
ț
iunilor
tale
ș
i
există
momente
triste
care,
puse
în
balan
ț
ă,
te
fac

apreciezi
momentele

bune.
Ori,
într-un
loc
virtual
unde
nu
există
consecin
ț
e
ș
i
unde
este
suficient
timp
pentru
ca
orice

gre
ș
eală

fie
uitată
de
ceilal
ț
i
locuitori
ai
cloud-ului,
nu
există
niciun
motiv
ra
ț
ional
pentru
ca

oamenii,
sau
con
ș
tiin
ț
a
lor
uploadată,

încerce
sa
evolueze,

fie
mai
buni.
In
Minunata
Lume

Nouă
a
lui
Huxley
se
prezintă
acela
ș
i
concept

totul
este
perfect
pentru
toată
lumea,
nu
există

sentimente
prea
puternice,
nimeni
nu
trebuie

se
lupte
pentru
nimic;
ș
i
totu
ș
i,
soma
era

consumat
fără
discriminare
de
to
ț
i
locuitorii
lumii
noi.
Cercetătorii
de
care
vorbeam
un
paragraf

mai
sus
nu
pare

au
un
motiv

ajute
omenirea
prin
cercetările
lor.
Toate
sistemele
filosofice
ș
i

morale
de
acum
sunt
bazate
pe
existen
ț
a
unui
interval
finit
de
timp
în
care
po
ț
i
impacta
mediul

din
jurul
tău.
Oamenii
nu
ar
fi
pregăti
ț
i
pentru
imortalitate.
Mai
mult,
dacă
un
individ
ar
ș
ti

există
un
spa
ț
iu
în
care,
ipotetic,
nu
există
suferin
ț
ă,
care
ar
fi
motivul
pentru
care
ar
continua

rămână în lumea fizică? Nu pare că există unul.

Mai
mult,
daca
con
ș
tiin
ț
a
unei
persoane
poate
fi
incărcată
într-u n
cloud,
înseamnă

poate
fi
de

asemenea
înregistrată,
accesată
ș
i
copiată.
Iar
copierea
personalită
ț
ii
unei
persoane
este
mult
mai

rea
decât
pare.
Pe
lângă
toate
problemele
de
încălcare
a
intimită
ț
ii
personale
(căci
ce
poate
fi
mai

intim
decât
întreaga
ta
personalitate
ș
i
toate
gândurile
tale?),
o
copie
a
personalită
ț
ii
umane
poate

primi
acelea
ș
i
drepturi
ca
originalul?
Dacă
nu,
atunci
este
acceptabilă
supunerea
copiei
la

tratamente
inumane?
Spre
exemplu,
daca
ar
exista
un
spa
ț
iu
virtual
atunci
probabil
creatorul
ar

putea avea posibilitatea de a modifica spa
ț
iul
ș
i chiar trecerea timpului din respectivul univers

virtual, iar posibilita
ț
ile de a tortura psihologic o fiin
ț
ă umană, sau copia unei con
ș
tiin
ț
e umane,

sunt infinite.

Odată
cu
dezvoltarea
tehnologiei
ș
i
a
Inteligen
ț
ei
Artificiale,
ș
i
perspectiva
asupra
înfăptuirii

justi
ț
iei
se
schimbă.
Se
pune
deja
accent
pe
justi
ț
ia
preventivă,
sau
moduri
de
a
prinde
posibili

infractori
înainte
ca
ei

comită
infrac
ț
iunile,
fie

vorbim
de
chat-bots
sau
de
programe
care

analizeaza
infrac
ț
ionalita tea
ș
i
probabilitatea
comiterii
unei
infra c
ț
iuni
în
viitor
din
anumite
zone

geografice,
astfel
încât
mai
multe
for
ț
e
de
ordine

fie
trimise
acolo.
Cu
siguran
ț
ă
o
astfel
de

tehnologie
ar
duce
la
o
accentuare
a
acestui
tip
de
justi
ț
ie,
fapt
ce
poate
pune
probleme
etice
ș
i
de

drepturi
ale
omului.
Mai
mult,
posibilitatea

imortalită
ț
ii

ar
putea
schimba
perspectiva
asupra

institu
ț
iei închisorii pe via
ț
ă.

Nu
ș
tim
cât
de
departe
vom
putea
ajunge
în
acest
progres
tehnologic,
fiindcă
tot
ș
irul
analziei
din

această
lucrare
ne

mai
multe
întrebări
decât
răspunsuri,
însă
ceea
ce
ș
tim
sigur
este

va

trebui

revizuim
întreaga
noastră
viziune
atât
asupra
inteligen
ț
ei
artificiale,
dar
ș
i
asupra

modului în care consacrăm drepturile umane.

Similar Posts