Inteligența artificială și libertatea conștiinței [613049]
Inteligența artificială și libertatea conștiinței
’’
If
we
continue
to
develop
our
technology
without
wisdom
or
prudence,
our
servant
may
prove
to
be
our
executioner.
’’,
idee
enunțată
de
Omar
Bradley,
ofițer
senior
al
armatei
Statelor
Unite,
undeva
spre
finalul
secolului
al
XX-
lea.
Având
experiența
războiului,
a
putut
observa
în
ce
măsură
a
influențat
evoluția
tehnologiei
evenimentele
de
atunci.
În
orice
caz,
această
afirmație
își
păstrează
actualitatea,
mai
ales
referitor
la
dezvoltarea
noțiunii
de
inteligență
artificială și în privința ariilor asupra cărora se răsfrânge acest concept.
Subiect
ce
a
făcut
obiectul
a
numeroase
dezbateri
de-a
lungul
ultimilor
ani
și
care
a
generat
destule
polemici,
inteligența
artificială
este
privită
sub
dublu
aspect.
Pe
de
o
parte,
ca
o
soluție
pentru
eficientizarea
diverselor
proceduri
și
facilitarea
sarcinilor
resursei
umane.
Pe
de
altă
parte, unii consideră că inteligența artificială vine ca o amenințare asupra umanității,
transformându-se într-un mecansim greu de controlat, care ar putea deveni din slujitor
conducător, în lumina afirmației inițiale.
Din
punct
de
vedere
istoric,
primele
prototipuri
de
inteligență
artificială
își
au
originea
în
prima
jumătate
a
secolului
al
XX-
lea
și
s-au
concretizat
în
jurul
personalităților
ca
Alan
Turing
și
Isaac
Asimov,
nume
sonore
în
acest
sens.
În
prezent,
printre
cei
care
au
adus
un
aport
considerabil
în
dezvoltarea
acestei
ramuri,
se
numără
Elon
Musk,
Bill
Gates
și
mulți
alții.
Totuși,
pentru
o
mai
bună
înțelegere
asupra
a
ceea
ce
presupune,
ar
trebui
să
plecăm
de
la
definirea
termenului
de
inteligență
artificială.
Într-o
caracterizare
cât
mai
simplă,
inteligența
artificială
are
în
vedere
sisteme
sau
mașini
care
imită
inteligența
umană,
pentru
a
efectua
diferite
activități
și
care
pot
îmbunătăți
iterativ
pe
baza
informațiilor
pe
care
le
colectează.
Inteligența
artificială
se
manifestă
prin
mai
multe
sisteme,
cele
expert
și
cele
machine
learning.
Așadar, principalul său scop este de a ameliora considerabil funcționalitățile și contribuțiile
umane.
În
acest
context,
survin
următoarele
întrebări:
ce
se
întâmplă
când
inteligența
artificială
deviază
de
la
scopul
inițial?
Suntem
noi
capabili
să
controlăm
toate
ramificațiile
inteligenței
artificiale?
Pot
ajunge
programele
de
inteligență
artificială
să
ne
condiționeze
drepturile
în
vreun fel, cu particularitate în cadrul rețelelor sociale?
Să
pornim
de
la
un
exemplu
concret,
în
legătură
cu
libertățile
noastre
fundamentale.
Consacrate
la
nivel
constituțional,
dar
și
la
nivel
internațional,
libertatea
de
gândire
și
libertatea
de
exprimare
își
găsesc,
totuși,
anumite
limitări
în
mediul
online.
Fiecare
persoană
are
dreptul
la
o
opinie
și
are
dreptul,
deopotrivă,
să
o
facă
auzită
și
evident,
fiecare
se
bucură
de
libertatea
de
gândire
și
de
conștiință.
Însă,
așa
cum
reiese
atât
din
dispozițiile
Convenției
Europene
a
Drepturilor
Omului,
cât
și
din
Carta
Drepturilor
Fundamentale
a
Uniunii
Europene,
aceste
libertăți
pot
fi
restrânse
pentru
a
face
să
prevaleze,
în
special,
binele
general.(CEDO,
Art.
9
(2)
Libertatea
de
a-și
manifesta
religia
sau
convingerile
nu
poate
face
obiectul
altor
restrângeri
decât
cele
prevăzute
de
lege
care,
într-o
societate
democratică,
constituie
măsuri
necesare
pentru
siguranța
publică,
protecția
ordinii,
a
sănătății,
a
moralei
publice,
a
drepturilor
și
a
libertăților
altora./
Art.10
(2)
Exercitarea
acestor
libertăți
ce
comportă îndatoriri și
1
responsabilități
poate
fi
supusă
unor
formalități,
condiții,
restrângeri
sau
sancțiuni
prevăzute
de
lege
care,
într-o
societate
democratică,
constituie
măsuri
necesare
pentru
securitatea
națională,
integritatea
teritorială
sau
siguranța
publică,
apărarea
ordinii
și
prevenirea
infracțiunilor
,
protecția
sănătății,
a
moralei,
a
reputației
sau
a
drepturilor
altora,
pentru
a
împiedica
divulgarea
informațiilor
confidențiale
sau
pentru
a
garanta
autoritatea
și
imparțialitatea
puterii
judecătorești.)
Putem
admite,
așadar,
că
aceste
drepturi
comportă
unele
condiționări,
mai
ales
pe
rețelele
de
socializare,
pentru
a
asigura
un
câmp
’’
safe’’
pentru
toți
utilizatorii,
ținând
cont
de
vârstele
și
orientările
tuturor.
Un
exemplu
în
acest
sens
este
legea
NetzDG,
lege
germană
care
solicită
rețelelor
sociale
stabilirea
unei
proceduri
pentru
o
bună
gestionare
a
plângerilor
cu
privire
la
conținut ilegal postat.
Este
bine-cunoscut
faptul
că
atâta
timp
cât
conținutul
unei
postări
nu
este
corespunzător,
postarea
respectivă
va
fi
ștearsă.
Revine
în
sarcina
unor
filtre
de
inteligență
artificială
să
determine
în
concret
dacă
o
postare
este
potrivită
sau
nu.
Dar
aceste
programe
se
pot
înșela
și
în
astfel
de
situații
este
oportun
să
ne
întrebăm
dacă
suntem
cu
adevărat
pregătiți
pentru
inteligența artificială.
Cu
titlu
de
exemplu,
amintim
o
ipoteză
în
care
o
fotografie
cu
un
câine
husky
a
fost
greșit
interpretată
de
un
algoritm
de
inteligență
artificială,
asimilându-l
unui
lup
din
cauza
fundalului,
în
care
se
regăsea
zăpadă.
O
astfel
de
eroare
reprezintă
un
exemplu
negativ,
dar,
în
niciun
caz
nu
trebuie
contestate
succesele
înregistrate
în
această
materie,
unul
notoriu
fiind
robotul
Sophie, care a ajuns și în România.
Cu
toate
că
dezvoltarea
conceptului
legat
de
inteligența
artificială
aduce
beneficii
în
numeroase
nișe,
lipsa
unei
reglementări
legale
explicite
în
această
materie,
atât
la
nivel
național,
cât
și
la
nivel
european
și
internațional
reprezintă
premisa
unei
analize,
mai
ales
în
ipoteza
în
care
s-ar
ajunge
la
un
nivel
atât
de
ridicat
încât
să
conducă
la
atingerea
drepturilor
fundamentale.
În
acest
sens,
la
nivelul
Uniunii
Europene
se
încearcă
creearea
unui
cadru
legal
care
să
acopere
în
întregime
utilizarea
inteligenței
artificiale
în
aplicațiile
sale
variate.
Parlamentul
European
a
pregătit
un
draft
în
acest
sens,
motivat
de
frecvența
tot
mai
înaltă
a
unor
astfel
de
programe
în
domeniul
juridic,
cel
al
sănătății
sau
al
finanțelor.
Ar
fi
de
preferat
un
regulament,
cu
aplicare
directă
în
toate
statele
membre
ale
Uniunii
pentru
evitarea
practicii
neunitare
și
a
posibilității
de
a
avea
27
de
legi
diferite
pe
aceeași
materie,
bazându-ne
în
special
pe
ideea
că
informația
nu
se
oprește
la
frontierele
statului.La
nivelul
Statelor
Unite,
există,
de
asemenea,
un
draft
care prevede câteva principii de bază în legătură cu acest subiect.
Putem
remarca
deci,
că
majoritatea
opiniilor
converg
spre
ideea
că
există
șanse
ca,
într-o
zi,
inteligența
artificială
să
avanseze
într-atât
încât
conștiința
și
gândurile
noastre
ar
putea
fi
stocate într-o dimensiune virtuală, care ne-ar permite o existență eternă.
În acest context, problemele legale care ar surveni ar fi nenumărate, cum ar putea un dr ept să
fie perpetuat după dispariția existenței efective, unde ar fi stocate gândurile noastre și mai ales
cine le-ar gestiona? Putem oare admite existența unui cimitir virtual la care să avem acces
printr un simplu search pe Google?
2
Greu
de
crezut.
Viața
cotidiană
nu
se
mai
poate
desfășura
în
parametrii
așa-ziși
normali,
fără
tehnologie
și
implicit
programe
de
inteligență
artificială,
mai
ales
în
contextul
actual,
generat
de pandemie, în care ne desfășurăm activitatea cu preponde rență în fața ecranelor de orice fel.
Să
considerăm,
prin
absurd,
că
un
program
de
inteligență
artificială
ar
reuși
să
ne
imite
la
nivel
comportamental,
ar
reuși
să
ne
scaneze
gândurile,
ne-ar
învăța
gesturile
și
ar
acționa
la
fel
ca
noi în situații date. Ce s-ar întâmpla cu noi?
Ar
dispărea
interacțiunea
și
unicitatea,
se
poate
susține.
La
pol
opus,
putem
afirma
că
viața
a
devenit
mai
ușoară,
deoarece
există
un
mecanism
care
este
apt
să
facă
ceea
ce
făceam
și
noi.
Este
interesant
de
invocat
un
experiment
realizat
de
câteva
universități,
care
a
pus
în
fața
unui
filtru
experimental
de
inteligență
artificială
mai
multe
cauze,
similare
în
ceea
ce
privește
fondul
și
temeiul
de
drept
(drepturi
fundamentale,
în
special
art.
6,
8,
10
din
CEDO).
S-a
tras
concluzia
că
acel
program
a
dat
soluții
în
concordanță
cu
ceea
ce
a
decis
judecătorul
în
proporție de 70%. Potențialul există și șansele de reușită sunt realizabile, în consecință.
Există
totuși
multe
alte
semne
de
întrebare,
mai
ales
privind
latura
umană.
Omul
este
o
ființă
fundamental
socială
și
simțirea
ne
face
diferiți
de
orice
produs
mecanizat,
creat
tot
de
o
ființă
socială,
în
ultimă
instanță.
Avem
situația
sub
control
și
ar
fi
de
preferat
ca,
în
unele
sarcini
să
nu
fie
niciodată
înlocuită
resursa
umană
cu
inteligența
artificială.
Un
exemplu
în
acest
sens
este
judecătorul,
care,
este
nevoit
de
nenumărate
ori
să
aprecieze
anumite
aspecte
la
cazul
concret
și
depinzând
de
numeroși
alți
factori
umani,
ce
ar
scăpa
unui
program
artificial.
Deși
în
domeniul
medical,
ar
fi
de
bun
augur
implementarea
mai
multor
aparaturi
de
acest
fel,
mențin
poziția,
considerând
că
este
mult
mai
eficientă
o
colaborare
fructuoasă
între
resursa
umană și rezultatul evoluției tehnologiei, decât ar fi una în absența celeilalte.
Relațiile
sociale
ar
fi
inevitabil
afectate,
deopotrivă.
Unde
s-ar
termina
indentitatea
noastră
ca
indivizi
și
unde
ar
începe
identitatea
virtuală?
Nu
ar
mai
putea
exista
bucuria
unei
conversații
dacă răspunsul ar putea fi intuit.
Nelămuriri
apar
și
din
perspectivă
legală.
Am
putea
admite
consacrarea
unui
drept
la
perpetuarea
existenței
și
când
ar
putea
fi
acesta
exercitat,
de
către
cine
(având
în
vedere
că
titularul
decedează)
?
Putem
să
vorbim
de
o
nouă
clauză
în
testament?
Cui
i-ar
putea
fi
oferită
această
putere
discreționară
de
a
gestiona
conștiința
a
mai
multe
persoane
după
ce
acestea
trec
în neființă? Când și unde ne putem da acordul pentru prelucrarea unor astfel de date?
Poate
rezultatul
unor
astfel
de
proceduri
ar
putea
fi
profund
dăunător
omenirii.
Într-o
manieră
sau
alta,
echilibrul
trebuie
păstrat,
creatorul
trebuie
să
râmănă
în
stăpânirea
propriei
creații
și
să nu degenereze într-un Pygmalion contemporan.
B i b l i o g r a f i e :
https://playtech.ro/2016/istoria-inteligentei-artificiale-cum-omul-si-creat-singur-adversarul
pe-care-nu-l-poate-depasi/
https://www.europarl.europa.eu/news/ro/headlines/priorities/piata-unica
digitala/20200206STO72030/inteligenta-artificiala-abordand-riscurile-la-adresa
consumatorilor
3
https://www.agerpres.ro/stiintatehnica/2018/ 12/12/retrospectiva-2018- beneficiile-si-riscurile
inteligentei-artificiale-analiza–226348
https://www.oracle.com/ro/artificial-intelligence/what-is-artificial-intelligence.html
https://www.juridice.ro/661905/revolutia-inteligentei-artificiale-si-domeniul-juridic.htm
l
https://en.wikipedia.org/wiki/Omar_Bradley#Recognition_a nd_legacy
https://www.ted.com/talks/peter_haas_the_real_reason_to_be _afraid_of_artificial_intelligen
c
e/transcript?fbclid=IwAR1YEzUz00CPFh2Zj ybTE8ohY vwOY 7_Qe EHyQxr FQSoM4neMj
iOZJWbLlc
https://en.wikipedia.org/wiki/Regulation_of _artificial_intelligence#:~:text=The%20Ar tificia
l
%20Intelligence%20Initiative%20Act,security%20of%20the%20Uni ted%20States
.
https://www.echr.coe.int/documents/convention_ron.pdf
4
Copyright Notice
© Licențiada.org respectă drepturile de proprietate intelectuală și așteaptă ca toți utilizatorii să facă același lucru. Dacă consideri că un conținut de pe site încalcă drepturile tale de autor, te rugăm să trimiți o notificare DMCA.
Acest articol: Inteligența artificială și libertatea conștiinței [613049] (ID: 613049)
Dacă considerați că acest conținut vă încalcă drepturile de autor, vă rugăm să depuneți o cerere pe pagina noastră Copyright Takedown.
