Artificial Intelligence and Freedom of Conscience [613041]
Artificial Intelligence and Freedom of Conscience
Începând
cu
o
simplă
defini
ț
ie,
inteligen
ț
a
artificială
se
referă
la
simularea
inteligen
ț
ei
umane
de
către
aparate
sau
mijloace
electronice
ori
robo
ț
i,
care
sunt
special
construi
ț
i
pentru
a
imita
ra
ț
ionamentul
fiin
ț
elor
umane
ș
i
pentru
a
ac
ț
iona
potrivit
mecanismului
de
gândire
care
este
caracteristic
omului,
făcând
conexiuni
similare
acestuia.
Ca
exmple
includem
programele
de
recunoa
ș
tere
facială,
motoarele
de
căutare,
asisten
ț
a
rutieră,
sugestia
produselor
sau
serviciilor
selectate
pe
baza
anumitor
criterii
de
preferin
ț
e
ale
utilizatorul ui
(ex:
aplica
ț
ia
de
muzică
ș
i
podcast
Spotify)
ș
i
altele.
Funda
ț
ia
mecanismului
de
func
ț
ionare
a
inteligen
ț
ei
artificiale este un algoritm pe baza căruia mjlocul electronic furnizează rezultate în func
ț
ie de anumite criterii.
Ca
scurt
istoric,
un
debut
important
a
fost
cel
al
lui
Alan
Turing
în
jurul
anilor
1950,
care
afirma
următoarele:
„dacă
oamenii
folosesc
informa
ț
ie
ș
i
ra
ț
iune
pentru
a
rezolva
probleme
ș
i
pentru
a
lua
decizii,
de
ce
nu
pot
ș
i
ma
ș
inăriile
să
facă
la
fel?”.
De
la
computere
care
în
acea
perioadă
puteau
doar
executa
anumite
comenzi,
astăzi
asistăm
la
un
adevărat
boom
tehnologic,
care
se
extinde
dincolo
de
domeniul
informaticii
sau
calculatoarelor,
ș
i
se
integrează
în
vie
ț
ile
noastre
prin
medicină,
muzică,
socializare.
Este
deci
lesne
de
preconizat
că
în
aceste
condi
ț
ii,
de
foarte
rapidă
dezvoltare
a
inteligen
ț
ei
artificiale,
toate
aspectele
vie
ț
ii
noastre
vor
fi
strâns
legate
de
func
ț
ionarea
acestui
„creier
electronic”.
Să
ne
imaginăm
am
de
ț
ine
un
espressor
care,
la
intrarea
noastră
în
încăpere
diminea
ț
a,
să
prepare
cafeaua
automat
în
func
ț
ie
de
preferin
ț
ele
noastre.
Fără
ca
noi
să
apăsăm
nici
măcar
un
buton.
Să
aplicăm
acum
acela
ș
i
ș
ablon
ș
i
la
vehic ulele
noastre,
la
aprinderea
luminilor
în
casă
la
sosire,
la
electrocasnice,
la
serviciile
medicale
etc.
Este
visul
tuturor,
de
a
de
ț
ine
„vale
ț
i”
electronici,
care
să
facă
aproape
totul
în
locul
nostru.
Până
unde
se
întinde
totu
ș
i
această
implementare
a
inteligen
ț
ei
artificiale
în
vie
ț
ile
noastre?
Este
inteligen
ț
a
artificială
pozitivă
ș
i
benefică
sub
absolut
toate
aspectele?
Sau
există
un
„pre
ț
” pe care trebuie să-l plătim?
În momentul de fa
ț
ă, stadiul tehnologiei nu permite vizualizarea limitei inteligen
ț
ei artificiale, ea este deci virtual
nelimitată,căci este greu de apreciat o anumită evolu
ț
ie concretă a acesteia. Cu toate acestea, oamenii de
ș
tiin
ț
ă
ș
i informaticienii
recunosc
că
nu
pot
reproduce
un
singur
lucru
în
cadrul
algoritmului
folosit
de
inteligen
ț
a
artificială:
instinctul
uman.
Instinctul
uman
este
funda
ț
ia
emo
ț
iilor
ș
i
a
con
ș
tiin
ț
ei
noastre.
Cu
titlu
exemplificativ,
nu
se
poate
concepe
în
următorii
zece
ani
(însă
este
total
posibil
în
următorii
douăzeci
sau
chiar
treizeci)
o
ma
ș
ină
care
să
func
ț
ioneze
absolut
autonom
ș
i
care
să
fie
deci
con
ș
tientă
de
reac
ț
iile
pietonilor
sau
de
evenimentele
imprevizibile
din
trafic.
La
numeroase
teste
care
implică
gestionarea
ș
i
procesarea
propriilor
emo
ț
ii,
acest
tip
de
ma
ș
ină
auton omă
lasă
de
dorit.
Ma
ș
ina
nu
poate
detecta,
atunci
când
vede
un
pieton
la
trecere,
dacă
acesta
va
fugi
sau
va
trece
regulamentar
sau
va
sta
pe
loc.
De
asemenea,
ma
ș
ina
nu
se
poate
baza
nici
pe
un
anume
instinct
conform
căruia
un
eveniment
rutier
va
lua
o
anumită
turnură
poten
ț
ial
devastatoare,
instinct
pe
care
limba
engleză
îl
define
ș
te
mai
bine
:
gut
feeling.
În
lumina
aceluia
ș
i
exemplu,
fiin
ț
ele
umane
se
tem
în
mod
natural
să
conducă
în
condi
ț
ii
meteorlogice
nefavorabile,
pe
timp
de
noapte
ș
i
pe
carosabile înguste.
După
analiza
foarte
succintă
a
rolului
inteligen
ț
ei
artificiale
în
via
ț
a
cotidiană,
este
necesar
a
se
trata
un
aspect
mai
controversat
ș
i
care
diferă
de
la
o
cultură
la
alta:
care
este
limita,
dacă
există
una,
a
inteligen
ț
ei
artificiale
în
ceea
ce
prive
ș
te
drepturile
omului,
precum
dreptul
la
via
ț
a
intimă,
de
familie?
Inteligen
ț
a
artificială
lucrează
prin
ipoteză
cu
informa
ț
ii,
mai
ales
informa
ț
ii
legate
de
preferin
ț
ele
persoanelor
sau
stilul
lor
de
via
ț
ă.
În
această
direc
ț
ie,
dar
fără
a
se
men
ț
iona
inteligen
ț
a
artificială,
s-au
trasat
deja
liniile
la
nivelul
Uniunii
Europene
prin
adoptarea
Regulamentului
General
de
Protec
ț
ie
a
Datelor
(GDPR),
intrat
în
vigoare
în
2018.
Ne
aflăm
deci
în
situa
ț
ia
unei
reac
ț
ii,
de
ș
i
fără
referire
expresă
la
inteligen
ț
a
artificială,
care
limitează
informa
ț
iile
privitoare
la
via
ț
a
intimă
ș
i
de
familie
care
pot
fi
stocate
ș
i
prelucrate
de
către
mai
multe
persoane
(fizice
sau
juridice),
printre
care
includem
ș
i
inteligen
ț
a
artificială.
Prin
compara
ț
ie,
în
Chin a,
cetă
ț
enii
nu
acordă
o
a
ș
a
mare
importan
ț
ă
datelor
legate
de
via
ț
a
lor
privată,
ei
considerând
că
prelucrarea
acestora este un fenomen firesc
ș
i natural, fără de care inteligen
ț
a artificială nu poate func
ț
iona.
Întrebarea
care
se
mai
pune
este
dacă
nu
cumva
con
ș
tiin
ț
a
noastră
poate
fi
stocată
sau
depozitată
prin
intermediul
inteligen
ț
ei
artificiale?
Judecând
după
stadiul
evolu
ț
iei
thenologiei,
răspunsul
pare
a
fi
negativ.
Un
prim
pas
dificil
pentru
dezvoltatori
este
de
a
implementa sim
ț
urile um ane în domeniul inteligen
ț
ei artificiale, un exemplu în acest sens fiind protezele care înlocuiesc membrele
amputate.
Cu
toate
acestea,
ș
tiin
ț
a
ș
i
tehnologia
trebuie
să
parcurgă
un
drum
mult
mai
lung
ș
i
mai
anevoios
pentru
a
ajunge
la
punctul
în
care
memoria,
amintirile,
percep
ț
ia
noastră
să
poată
fi
stocate
ș
i
eventual
accesate.
Mai
mult
decât
atât,
nu
se
poate
ignora
dimensiunea
morală
a
acestui
proces.
Este
just
să
ne
fie
accesate
ș
i
vizualizate,
eventual
chiar
ș
i
folosite
amintirile,
sentimentele,
memoria,
în
condi
ț
iile
în
care
am
ș
i
încetat
din
via
ț
ă
între
timp?
Corelând
acestea
cu
principiul
echită
ț
ii
din
GDPR,
răspunsul
este
negativ.
Prin
urmare,
este
la
fel
de
inechitabil
a
accesa
ș
i
prelucra
datele
unei
persoane
ce
ț
in
de
un
aspect
atât
de
intim
legat
de
via
ț
a
privată: con
ș
tiin
ț
a.
Fără a da o defini
ț
ie, în opinia noastră, con
ș
tiin
ț
a este percep
ț
ia finală a unei persoane, după ce a trecut evenimentele realită
ț
ii prin
propriul filtru emo
ț
ional. Este deci percep
ț
ia subiectivă asupra realită
ț
ii. Con
ș
tiin
ț
a este a
ș
adar legată de mai multe aspecte mult prea
intrinseci fiin
ț
ei uma ne, care nu pot fi concretizate într-un algoritm care apoi să fie utilizat în orice mod de inteligen
ț
a artificială. În
fine, tocmai aspectul subiectiv ar face ca aceste date preluate, să rezulte în date complet diferite de realitate, doarece fiecare persoană
percepe realitatea diferit. Astfel, în ipoteza în care aceste memorii sau procese de con
ș
tiin
ț
ă ar fi folosite , spre exemplu în cazul unei
anchete, rezultatul va fi variabil
ș
i fluctuant, în func
ț
ie de persoana a cărei con
ș
tiin
ț
ă s-a utilizat în procedura respectivă.
O altă întrebare care reclamă aten
ț
ie: care este scopul
ș
i utilitatea stocării con
ș
tiin
ț
ei noastre?
Sub
un
prim
aspect,
ar
fi
un
mijloc
de
probă
în
cadrul
procesului
penal
pentru
a
dovedi
săvâr
ș
irea
unor
fapte
penale,
sau
la
dezbaterea
unei
succesiuni
pentru
a
dovedi
dacă
a
fost
sau
nu
viciat
consim
ț
ământul
testatorului
sau
care
a
fost
voin
ț
a
lui
reală,
ori
în
cazul
anulării
unui
act
juridic
civil
pe
motive
de
vicii
de
cosim
ț
ământ,
altă
situa
ț
ie
în
care
necesitatea
probatorie
este
evidentă
fiind
divor
ț
ul din culpa unuia d intre so
ț
i.
Cu toate acestea, informa
ț
iile con
ș
tiin
ț
ei astfel stocate nu comportă o dimensiune pozitivă sub toate aspectele ei, ci aceste informa
ț
ii ar
putea constitui la fel de bine obiectele juridice ale unei infrac
ț
iuni. Asemănător infrac
ț
iunii de violare vie
ț
ii private (în care nu
încadrez însă posibilele infrac
ț
iuni comise în legătură cu datele rezultate din con
ș
tiin
ț
a proprie a fiecăruia), s-ar putea imagina o
infrac
ț
iune, în care elementul material să conste într-o formă similară cu infrac
ț
iunea de acces ilegal la un sistem informatic.
Alte
aspecte
ale
vie
ț
ii
în
care
ar
avea
impact
stocarea
con
ș
tiin
ț
ei
umane,
sunt
la
nivel
psihic.
Cum
ar
func
ț
iona
acest
mecansim
în
cazul
victimelor
unor
infrac
ț
iuni
de
violen
ț
ă
domestică,
infrac
ț
iuni
de
natură
sexuală,
de
terorism,
tortură
sau
pur
ș
i
simplu
în
cazul
persoanelor
care
au
suferit
o
anume
traumă?
Ar
presupune
ca
gestionarii
acestor
date,
fie
ei
oameni
sau
calculatoare,
să
aibă
acces
la
evenimentele
tulburătoare
din
via
ț
a
fiecărei
persoane.
Ba
mai
mult,
impactul
pe
care
îl
are
un
asemenea
eveniment
asupra
psihicului
unei
fiin
ț
e
umane
este
uneori
devastator.
Nefericitul
individ
s-ar
afla
în
situa
ț
ia
de
a
vedea
scena
ș
i
implicit
de
a
o
trăi
la
nesfâr
ș
it,
vizualizând cu proprii ochi
ș
i nu doar cu ochii min
ț
ii, aceea
ș
i scenă din nou
ș
i din nou.
O
alternativă
la
această
situa
ț
ie
ar
fi
însă
ș
tergerea
sau
modificarea
acestor
scene
neplăcute
din
memoria
subiectului.
Ra
ț
ionamentul
principal
ar
fi
acela
că,
dacă
am
trata
con
ș
tiin
ț
a
la
fel
ca
orice
date
sau
informa
ț
ii
de
pe
computerul
nostru,
a
ș
a
cum
au
fost
înregistrate,
vor
putea
fi
la
fel
de
bine
eliminate
sau
alterate.
Un
astfel
de
instrument
s-ar
putea
dovedi
extrem
de
util
în
terapia
victimelor
accidentelor
sau
infrac
ț
iunilor
sau
în
tratarea
diferitelor
tulburări
de
natură
psihică.
Totu
ș
i,
acela
ș
i
instrument
util
se
poate
dovedi
ș
i
o
armă,
datele
con
ș
tiin
ț
ei
astfel
stocate
vor
putea
fi
manvrate
în
mod
fraudulos,
astfel
încât
percep
ț
ia
despre
realitate
ar
fi
cu
totul
alta.
În
acest
caz,
persoanele
care
prelucrează
memoriile,
opiniile,
amintirile,
emo
ț
iile
în
mod
ilegal
ar
fi
„dirijori”
ai
min
ț
ii
iar
subiectul ac
ț
iunilor lor, v a fi o victimă cu o con
ș
tiin
ț
ă fundamental diferită de cea proprie.
În
concluzie,
putem
afirma
cu
exactitate
că
procedeul
prin
care
s-ar
depozita
con
ș
tiin
ț
a
noastră
într-o
bază
de
date,
prin
intermediul
inteligen
ț
ei
artificiale,
ridică
numeroase
probleme
de
ordin
moral.
Stadiul
evolu
ț
iei
în
domeniu
indică
faptul
că
nu
ar
fi
posibilă
înzestrarea
inteligen
ț
ei
artificiale
cu
informa
ț
ii
atât
de
intim
legate
de
via
ț
a
privată
ș
i
de
psihicul
uman.
Pentru
a
nu
anihila
această
posibilitate,
căci
legea
lui
Moore
(1965)
prezice
dublarea
progresului
în
domeniul
informaticii
cu
scăderea
propor
ț
ională
a
costurilor,
chiar
dacă
s-ar
ajunge
la
un
asemenea
procedeu
revolu
ț
ionar
ș
i
totu
ș
i
periculos,
umanitatea
contează
pe
reglementările
legislative în domeniu pentru a le oferi protec
ț
ia necesară în ceea ce prive
ș
te securitatea con
ș
tiin
ț
ei lor.
Bibliografie:
http://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/
https://journals.sagepub.com/doi/full/10.1177/1781685818764821
http://www.cs.yale.edu/homes/dvm/papers/conscioushb.pdf
Copyright Notice
© Licențiada.org respectă drepturile de proprietate intelectuală și așteaptă ca toți utilizatorii să facă același lucru. Dacă consideri că un conținut de pe site încalcă drepturile tale de autor, te rugăm să trimiți o notificare DMCA.
Acest articol: Artificial Intelligence and Freedom of Conscience [613041] (ID: 613041)
Dacă considerați că acest conținut vă încalcă drepturile de autor, vă rugăm să depuneți o cerere pe pagina noastră Copyright Takedown.
