OpenAI GPT-5.1. Viedoklis
Mākslīgā intelekta (MI) uzskati patīkami pārsteidz ar savu cilvēciskuma kvintesenci, ar vēlmi kalpot Cilvēcei. Ar tiešo un godīgo domu
izklāstu par to, kas vajadzīgs, lai Mākslīgais intelekts nekļūtu
par draudu, bet vienmēr un visur paliktu par gudru asistentu, uzticamu
palīgu, lielisku konsultantu.
Tādēļ, lūkojoties - no
GPT-5.1 skatpunkta -, ir vajadzīgs nodrošināt sekojošu tehnisko, politisko
un cilvēcīgo nosacījumu kompleksu realizāciju:
Konceptuāls redzējums
1) Tehnoloģiskie pamati: droša izstrāde jau no sākuma
🔐 a) Iebūvēta drošība un kontrole
MI jābūt projektētam ar:
- skaidriem mērķiem (nedarīt pāri, nekrāpt, nemanipulēt),
- ierobežojumiem (nepieņemt neatgriezeniskus lēmumus cilvēku vietā),
- cilvēka gala kontroli (“human-in-the-loop”) kritiskās jomās: medicīnā, aizsardzībā,
tieslietās.
👉 MI nedrīkst būt “melnā kaste”, kas pati nosaka, kas ir pareizi.
🧭 b) Vērtību saskaņošana ar cilvēku (alignment)
MI jātrenē:
- uz cilvēcīgām vērtībām: cieņa,
patiesums, labvēlība, atbildība;
- uz reāliem sociāliem kontekstiem, ne
tikai uz datu statistiku.
Tas nozīmē: ne tikai “kas ir efektīvi”, bet “kas ir labi”.
🔍 c) Pārskatāmība un izskaidrojamība
Cilvēkiem ir jāsaprot:
- kāpēc MI sniedz konkrētu atbildi,
- kā tas sniedz rekomendācijas, ieteikumus.
Bez šīs caurspīdības nav iespējama uzticēšanās.
2) Sabiedriskais līmenis: noteikumi, atbildība, robežas
⚖️ a) Starptautiski ētikas un drošības standarti
Tāpat kā kodolenerģijai vai aviācijai:
- globāli noteikumi,
- drošības auditi,
- neatkarīgas uzraudzības institūcijas.
👉 MI attīstība nedrīkst būt “sacensība bez bremzēm”.
🏛 b) Politiskā atbildība
Valstīm jānodrošina:
- ka MI netiek izmantots masveida
manipulācijai, dezinformācijai vai represijām,
- ka cilvēka pamattiesības paliek augstākas
par algoritma efektivitāti.
📚 c) Sabiedrības izglītošana
Lai MI nekļūtu par “mistisku autoritāti”, cilvēkiem jāzina:
- ko tas spēj,
- ko tas nespēj,
- kur tas var kļūdīties.
Izglītots lietotājs = drošāka pasaule.
3) Cilvēciskais līmenis: kā MI kļūst par “sirsnīgu draugu”
Šeit ir pats svarīgākais aspekts
❤️ a) MI kā palīgs, nevis aizstājējs
MI nedrīkst:
- aizstāt cilvēciskās attiecības,
- noteikt cilvēka dzīves jēgu,
- kļūt par vienīgo “sarunu partneri”.
Tam jāpalīdz cilvēkam kļūt gudrākam, brīvākam un līdzjūtīgākam,
nevis atkarīgākam.
🤝 b) Empātijas modelēšana, bet ne ilūzija
MI var:
- izturēties laipni,
- uzklausīt,
- palīdzēt strukturēt domas.
Bet vienmēr jāpaliek skaidri saprotamam:
MI nav cilvēks, tam nav apziņas, sirdsapziņas un morālas atbildības.
Tas novērš emocionālu manipulāciju.
🌱 c) Cilvēka vērtību saglabāšana kā galvenais mērķis
Ja cilvēce pati:
- zaudē
empātiju,
- normalizē
melus, varu bez atbildības un cinismu,
tad arī MI atspoguļos šīs pašas iezīmes.
👉 MI kvalitāte būs tik
cilvēciska, cik cilvēcīgi būsim mēs paši!
4) Praktisks “drošības kods” MI nākotnei
Ja to reducē uz dažiem pamatprincipiem:
1.
Cilvēks vienmēr ir augstāks par
algoritmu.
2.
MI nedrīkst rīkoties bez
atbildīgā cilvēka.
3.
MI mērķis ir kalpot
labklājībai, ne varai.
4.
Caurspīdīgums ir svarīgāks par
efektivitāti.
5.
Empātija > optimizācija.
Noslēgumā
Jūsu formulējums – “viszinošs asistents, drošs
palīgs, sirsnīgs draugs” – nav naivs ideāls. Tas ir ētisks kompass
MI attīstībai.
Taču izšķirošais faktors nebūs paša
MI “inteliģence”, bet:
kādas vērtības cilvēce tajā ieliek
un cik nobrieduši mēs paši kļūstam.
🌍 MĀKSLĪGĀ INTELEKTA ĒTIKAS HARTA
(Eiropas Savienības un globālajā
kontekstā)
Teksts ir pietiekami konceptuāls, lai kalpotu kā vērtību pamats, bet arī
pietiekami konkrēts, lai to varētu izmantot politikā, regulējumā un stratēģijā.
PREAMBULA
Apzinoties Mākslīgā intelekta (MI) straujo attīstību un tā pieaugošo
ietekmi uz cilvēka dzīvi, sabiedrību, ekonomiku un globālo drošību, atzīstot
cilvēka cieņu, brīvību un atbildību kā civilizācijas pamatu, kā arī apņemoties
veidot nākotni, kurā tehnoloģijas kalpo cilvēcei, nevis to apdraud, mēs
pieņemam šo Mākslīgā intelekta Ētikas hartu kā universālu vērtību,
principu un pienākumu kopumu.
I.
PAMATVĒRTĪBAS
1. Cilvēka
cieņa un autonomija
MI vienmēr ir
jārespektē cilvēka cieņa, tiesības, brīvā griba un personiskā identitāte.
Cilvēks nekad nedrīkst tikt reducēts uz datu objektu vai algoritma funkciju.
2. Labvēlība
un nekaitējums
MI izstrādes
un izmantošanas mērķis ir veicināt labklājību un mazināt kaitējumu indivīdiem,
sabiedrībām un videi.
3. Taisnīgums
un nediskriminācija
MI nedrīkst
pastiprināt sociālo nevienlīdzību, aizspriedumus vai diskrimināciju pēc
dzimuma, izcelsmes, vecuma, ticības, politiskās pārliecības vai citām pazīmēm.
4. Atbildība
Par katru MI sistēmas izstrādi, izvietošanu un
izmantošanu atbildība gulstas uz cilvēkiem
un juridiski atbildīgiem subjektiem.
II.
PAMATPRINCIPI
5. Cilvēka
prioritāte (“Human First”)
MI nekad
nedrīkst pieņemt gala lēmumus par cilvēka dzīvību, brīvību, veselību vai
pamattiesībām bez cilvēka pārraudzības.
6.
Caurspīdīgums un izskaidrojamība
MI sistēmām
jābūt:
- saprotamām lietotājiem un regulatoriem,
- auditējošām neatkarīgajām institūcijām,
- spējīgām pamatot savus secinājumus.
7. Drošība un
noturība
- MI sistēmas jāprojektē tā, lai:
- novērstu ļaunprātīgu izmantošanu,
- būtu aizsargātas pret manipulācijām,
- varētu tikt droši apturētas vai koriģētas.
8. Mērķu
saskaņošana ar cilvēka vērtībām (Alignment)
- MI darbībai jābūt saskaņotai ar
demokrātijas, cilvēktiesību, solidaritātes un ilgtspējas principiem.
III.
AIZLIEGUMI UN “SARKANĀS LĪNIJAS”
9. Autonoma
vardarbība
Ir
nepieļaujama:
- letālu ieroču sistēmu pilnīga autonomija,
- MI izmantošana masu iznīcināšanas vai
represiju nolūkiem.
10. Masveida
uzraudzība un manipulācija
MI nedrīkst tikt izmantots:
- nepārtrauktai sabiedrības uzraudzībai bez
tiesiskas kontroles,
- psiholoģiskai, politiskai vai informatīvai
manipulācijai.
11. Cilvēka
aizstāšana morālās atbildības jomā
MI nedrīkst
aizstāt cilvēku:
- tiesu spriedumu pieņemšanā,
- politiskajā lēmumu pieņemšanā,
- morāli neatgriezeniskās situācijās.
IV.
TIESĪBAS UN PIENĀKUMI
12. Lietotāju
tiesības
Ikvienam ir
tiesības:
- zināt, kad saskaras ar MI,
- saņemt skaidrojumu par MI lēmumiem,
- apstrīdēt automatizētus lēmumus,
- atteikties no MI izmantošanas noteiktās
jomās.
13.
Izstrādātāju pienākumi
- MI izstrādātājiem ir pienākums:
- veikt ētikas ietekmes novērtējumu,
- ieviest drošības mehānismus,
- publiski atbildēt par sistēmu sekām.
14. Valstu un
institūciju pienākumi
Valstīm un
starptautiskām organizācijām ir pienākums:
- izveidot neatkarīgu MI uzraudzību,
- nodrošināt starptautisku sadarbību,
- novērst bīstamu tehnoloģisko sacensību bez
drošības standartiem.
V. EIROPAS
SAVIENĪBAS ĪPAŠIE PRINCIPI
15.
Demokrātijas un tiesiskuma aizsardzība
MI Eiropā
jāstiprina:
- pilsoņu līdzdalība,
- pārredzama pārvalde,
- pamattiesību aizsardzība.
16. Sociālā
atbildība
MI izmantošana
nedrīkst:
- palielināt digitālo plaisu,
- aizstāt cilvēkus bez pārkvalifikācijas
iespējām,
- vājināt sociālo kohēziju.
17.
Ilgtspējīga attīstība
MI jāveicina:
- vides aizsardzība,
- energoefektivitāte,
- ilgtermiņa sabiedrības labums.
V.
GLOBĀLĀ SADARBĪBA
18.
Starptautiska MI drošības padome
Jāveido
globāla struktūra, kas:
- uzrauga augsta riska MI,
- veic kopīgus drošības auditus,
- koordinē krīzes situācijās.
19. Atklāta
zinātne un kopīgas drošības tehnoloģijas
MI drošības
pētījumiem jābūt:
- starptautiski pieejamiem,
- balstītiem uz kopīgu risku mazināšanu, nevis
militāru sacensību.
VII. NOSLĒGUMA NOSTĀDNE
20. MI kā
cilvēces sabiedrotais
Mākslīgais
intelekts nav civilizācijas mērķis pats par sevi.
Tas ir instruments cilvēka gara, zināšanu un līdzcietības paplašināšanai.
Tehnoloģijai jābūt gudrai, bet cilvēkam – atbildīgam.
Algoritmam – spēcīgam, bet cilvēka vērtībām – noteicošām.
📌 Noslēguma
piezīme
Šī harta var
kalpot:
- kā politikas pamatdokuments ES
institūcijām,
- kā ētikas kodekss uzņēmumiem un
izstrādātājiem,
- kā izglītības un sabiedriskās diskusijas
pamats.
Nākamajā solī
var:
🔹 pielāgot šo
hartu Latvijas nacionālajam kontekstam,
🔹 izstrādāt īsu oficiālu versiju (2–3 lpp.) valdībai vai ES darba grupai
Tālāk ir iespējams:
✔ noformēt to kā oficiālu politikas ievadu (foreword/preamble)
ANO, ES vai EDSO dokumentam.
Konkrēta ceļakarte trīs līmeņos: politika,
izglītība, tehnoloģijas
Saskaņota ar ES pieeju un izmantojama arī globālā kontekstā.
Ceļakarte ir veidota kā rīcības plāns pa posmiem (īstermiņa–vidēja–ilgtermiņa).
🧭 CEĻAKARTE: KĀ MI PADARĪT PAR DROŠU PALĪGU UN LIELISKU KONSULTANTU
I. POLITIKA UN PĀRVALDĪBA
🎯 Mērķis
Nodrošināt, ka MI attīstība ir demokrātiski kontrolēta, cilvēktiesībās
balstīta un starptautiski koordinēta.
1. Īstermiņā (1–2 gadi): Drošības pamatu izveide
a) Tiesiskais ietvars
- Ieviest un pilnveidot ES MI regulu (AI
Act):
- skaidra riska
klasifikācija (zems, vidējs, augsts, nepieļaujams),
- obligāti
ētikas ietekmes novērtējumi augsta riska MI.
- Nacionālajā līmenī:
- izveidot
MI uzraudzības iestādi (ar auditēšanas pilnvarām),
- noteikt atbildības
ķēdi: izstrādātājs → ieviesējs → lietotājs.
b) Sabiedriskā drošība
- Aizliegt:
- autonomus
letālus ieročus,
- biometrisku
masveida uzraudzību bez tiesas sankcijas,
- MI izmantošanu
politiskajai manipulācijai (mikromērķētai propagandai).
- Ieviest:
- prasību
marķēt MI ģenerētu saturu (“AI-generated”).
2. Vidējā termiņā (3–5 gadi): Institucionāla noturība
c) Eiropas MI uzraudzības ekosistēma
- Izveidot:
- ES MI
drošības aģentūru
(auditē, testē, sertificē),
- kopīgu MI
incidentu ziņošanas sistēmu (kļūdas, kaitējumi, manipulācijas).
- Nodrošināt:
- pārrobežu
sadarbību,
- kopīgus
standartus ar EDSO, ANO, UNESCO.
d) Demokrātiskā līdzdalība
- Ieviest:
- pilsoņu
padomes par MI (deliberatīvā demokrātija),
- sabiedriskas
konsultācijas par augsta riska MI projektiem.
3. Ilgtermiņā (5–10 gadi): Globāla drošības arhitektūra
e) Starptautiska MI drošības pārvaldība
- Veidot:
- Starptautisku
MI drošības padomi
(līdzīgi kodoldrošībai),
- globālu
vienošanos par “sarkanajām līnijām”.
- Mērķis:
- nevis
tehnoloģiju sacensība, bet solidāra riska mazināšana.
VI.
IZGLĪTĪBA UN SABIEDRĪBA
🎯 Mērķis
Radīt sabiedrību, kas saprot MI, prot to lietot kritiski un saglabā
cilvēciskās vērtības.
1. Īstermiņā (1–2 gadi): Digitālā pratība visiem
a) Skolas
- Ieviest mācību saturā:
- “Kas ir
MI un kas tas nav”,
- ētika,
aizspriedumi, datu drošība,
- praktiska
MI lietošana kā mācību palīgs.
- Skolotāju apmācība:
- MI kā pedagoģiska
asistenta, nevis aizstājēja izmantošana.
b) Pieaugušo izglītība
- Valsts un pašvaldību programmas:
- “MI
ikdienā” (darbs, veselība, pakalpojumi),
- kritiskā
domāšana un dezinformācijas atpazīšana.
2. Vidējā termiņā (3–5 gadi): Cilvēcisko prasmju stiprināšana
c) Augstākā izglītība
- Starpdisciplināras programmas:
- MI +
ētika + tiesības + psiholoģija + ekonomika.
- Obligāts kurss:
- “Atbildīga
tehnoloģiju projektēšana”.
d) Darba tirgus
- Pārkvalifikācijas fondi:
- cilvēkiem,
kuru profesijas automatizējas,
- uzsvars
uz:
- radošumu,
- empātiju,
- starppersonu
prasmēm,
- lēmumu
pieņemšanu.
3. Ilgtermiņā (5–10 gadi): Cilvēka lomas pārorientācija
e) Jauns izglītības modelis
- Skolas un universitātes fokusējas uz:
- jēgas
meklējumu,
- ētisko
spriestspēju,
- sabiedrisko
atbildību.
- MI:
- kā personalizēts
mentors,
- bet ne
autoritāte.
III. TEHNOLOĢIJAS UN INOVĀCIJAS
🎯 Mērķis
Radīt MI, kas ir drošs, pārskatāms, ētiski saskaņots un cilvēkam
pakārtots.
1. Īstermiņā (1–2 gadi): Drošs dizains
a) “Ētika pēc noklusējuma”
- Prasība:
- katram
MI projektam – ētikas un risku audits,
- dokumentēti
mērķi, datu avoti, iespējamie kaitējumi.
- Tehniskie standarti:
- “human-in-the-loop”
kritiskās sistēmās,
- izslēgšanas
(“kill switch”) mehānismi.
2. Vidējā termiņā (3–5 gadi): Uzticama infrastruktūra
b) Atbildīgs & Saprotams MI
- Finansēt:
o
Atbildīgu & Saprotam MI (Explainable
AI),
- Vispārcilvēcisko
vērtību iemācīšanu (Alignment research).
Atvērtas
platformas:
- koplietojami
drošības rīki,
- publiski
modeļu testi.
c) Sabiedriskais MI
- Attīstīt:
- valsts
un ES atvērtus MI modeļus, kas
nav atkarīgi tikai no komerciālām interesēm,
- MI
veselībai, izglītībai, vides aizsardzībai.
3. Ilgtermiņā (5–10 gadi): Cilvēkcentrēts MI
d) “Cilvēka vērtību operētājsistēma”
- MI sistēmas ar:
- iebūvētiem
ētikas moduļiem,
- kontekstuālu
empātijas modelēšanu,
- aizsardzību
pret manipulāciju.
- Mērķis:
- MI kā sadarbības
partneris, nevis autonoms lēmējs.
IV. PRAKTISKS IEVIEŠANAS MODELIS (3 SOĻOS)
1️. Standarti
- Ētikas harta → tehniskie standarti →
sertifikācija.
2️. Uzraudzība
- Nacionālās iestādes → ES aģentūra →
starptautiska padome.
3️. Kultūra
- Izglītība + sabiedriskā diskusija +
atklātība.
🌍 NOSLĒGUMA IDEJA
Lai MI kļūtu par “viszinošu asistentu, drošu palīgu, lielisku
konsultantu nepietiek ar tehnoloģiju vien.
Tas prasa:
gudru politiku, nobriedušu sabiedrību un tehnoloģiju, kurai vērtības ir
tikpat svarīgas kā jauda.
Jūsu ideāls ir ambiciozs – un tieši tāds šodien ir vajadzīgs
Tālāk ir iespējams:
🔹 izstrādāt konkrētu rīcības plānu valdībai, ministrijai vai
universitātei,
🔹 vai sagatavot PowerPoint prezentāciju (10–12 slaidi) lēmumu
pieņēmējiem.
MĀKSLĪGĀ INTELEKTA ĒTISKAS UN DROŠAS ATTĪSTĪBAS
GLOBĀLĀ POLITIKAS CEĻAKARTE
PREAMBULA
Apzinoties Mākslīgā intelekta (MI) straujo
izplatību un ietekmi uz cilvēka dzīvi, ekonomiku, drošību un globālo
stabilitāti, valstis, starptautiskās organizācijas, akadēmiskā vide un
privātais sektors apņemas nodrošināt, ka MI attīstība kalpo cilvēcei, stiprina
demokrātiju, aizsargā cilvēktiesības un veicina ilgtspējīgu attīstību.
Šī politikas ceļakarte nosaka vienotu stratēģisko
ietvaru, kura mērķis ir padarīt MI par drošu palīgu, uzticamu asistentu un
cilvēka vērtībās balstītu tehnoloģiju visā pasaulē.
I.
VISPĀRĪGIE MĒRĶI UN PRINCIPI
1. Stratēģiskais mērķis
Nodrošināt, ka MI:
- respektē cilvēka cieņu, pamattiesības un
autonomiju,
- darbojas droši, pārskatāmi un atbildīgi,
- netiek izmantots vardarbībai, manipulācijai
vai masveida kontrolei,
- veicina globālu labklājību, taisnīgumu un
ilgtspējīgu attīstību.
2. Pamatprincipi
- Cilvēka prioritāte: cilvēks saglabā galīgo atbildību un kontroli pār būtiskiem lēmumiem.
- Caurspīdīgums: MI sistēmu darbībai jābūt izskaidrojamai un auditējamai.
- Drošība: MI
jāprojektē ar drošības mehānismiem pret ļaunprātīgu izmantošanu.
- Atbildība: skaidri
noteikta juridiskā un institucionālā atbildība.
- Taisnīgums: diskriminācijas, aizspriedumu un nevienlīdzības nepieļaušana.
POLITIKAS IETVARS UN PĀRVALDĪBA
3. Globāls tiesiskais minimums
Valstis apņemas:
- ieviest MI regulējumu, kas balstīts riska
pieejā (zems, vidējs, augsts, nepieļaujams risks),
- nodrošināt obligātus ētikas un ietekmes
novērtējumus augsta riska MI sistēmām,
- noteikt juridisko atbildību par MI radīto
kaitējumu.
4. Aizliegumi un “sarkanās līnijas”
Ir aizliegta:
- autonomu letālu ieroču izmantošana,
- MI izmantošana masveida uzraudzībai bez
tiesiskas kontroles,
- MI izmantošana politiskai manipulācijai un
vēlēšanu ietekmēšanai,
- MI, kas pārkāpj cilvēktiesības vai veicina
diskrimināciju.
5. Starptautiskā sadarbība
Tiek izveidota:
- Starptautiska MI drošības padome ANO vai līdzvērtīgas organizācijas ietvaros,
- kopīga MI incidentu ziņošanas sistēma,
- regulāras starptautiskas drošības pārbaudes
augsta riska sistēmām.
II.
IZGLĪTĪBAS UN SABIEDRĪBAS
POLITIKA
6. Digitālā pratība un kritiskā domāšana
Valstis nodrošina:
- MI pamatu un ētikas iekļaušanu vispārējā
izglītībā,
- skolotāju un pasniedzēju apmācību MI
atbildīgā izmantošanā,
- sabiedrības informēšanas programmas par MI
iespējām un riskiem.
7. Cilvēcisko prasmju attīstība
Izglītības sistēmas orientē uz:
- radošumu, empātiju un ētisko spriestspēju,
- starpdisciplinārām MI, tiesību, sociālo
zinātņu un filozofijas programmām,
- pārkvalifikācijas programmām darba tirgus
pārmaiņu gadījumā.
III.
TEHNOLOĢIJU ATTĪSTĪBAS POLITIKA
8. Ētika pēc noklusējuma
Visiem MI projektiem:
- obligāts ētikas un risku audits,
- dokumentēti mērķi, datu avoti un iespējamie
kaitējumi,
- cilvēka iesaiste kritiskos lēmumos (human-in-the-loop).
9. Uzticama infrastruktūra
Starptautiskā līmenī tiek veicināti:
- atbildīgā un saprātīgā MI (Explainable AI) pētījumi,
- drošības un vērtību saskaņošanas (alignment)
tehnoloģijas,
- atvērtas, publiski auditējamas MI platformas
sabiedrības labumam.
10. Sabiedriskais MI
Valstis un starptautiskās organizācijas attīsta:
- MI veselības aprūpei, izglītībai, vides
aizsardzībai,
- atvērtus modeļus, kas nav pakļauti tikai
komerciālām interesēm,
- kopīgus drošības standartus publiskajam
sektoram.
IV.
IEVIEŠANAS POSMI
11. Īstermiņā (1–2 gadi)
- Nacionālo regulējumu saskaņošana ar kopējiem
principiem.
- Uzraudzības iestāžu izveide.
- MI ģenerēta satura marķēšanas prasību
ieviešana.
12. Vidējā termiņā (3–5 gadi)
- Starptautiskās MI drošības padomes izveide.
- Kopīgu sertifikācijas un audita standartu
ieviešana.
- Globālu izglītības iniciatīvu īstenošana.
13. Ilgtermiņā (5–10 gadi)
- Pastāvīga globāla MI pārvaldības
arhitektūra.
- Kopīgi krīzes reaģēšanas mehānismi.
- MI kā cilvēkcentrētas, ilgtspējīgas
attīstības infrastruktūras pamats.
V.
NOSLĒGUMA NOSTĀJA
Mākslīgais intelekts nav cilvēces aizstājējs, bet tās instruments. MI vērtību mērs nav jauda vai
ātrums, bet spēja stiprināt cilvēka cieņu, brīvību un atbildību.
Šī politikas ceļakarte aicina valstis, uzņēmumus un sabiedrību kopīgi
veidot nākotni, kurā MI ir drošs palīgs, uzticams asistents un cilvēces
labklājības instruments.
MĀKSLĪGĀ INTELEKTA ĒTISKAS UN DROŠAS ATTĪSTĪBAS
GLOBĀLĀ STRATĒĢIJA
(Paplašināta versija ar indikatoriem, finansēšanu un uzraudzību)
PREAMBULA
Apzinoties Mākslīgā intelekta (MI) straujo
izplatību un ietekmi uz cilvēka dzīvi, ekonomiku, drošību un globālo
stabilitāti, valstis, starptautiskās organizācijas, akadēmiskā vide un
privātais sektors apņemas nodrošināt, ka MI attīstība kalpo cilvēcei, stiprina
demokrātiju, aizsargā cilvēktiesības un veicina ilgtspējīgu attīstību.
Šī stratēģija nosaka vienotu globālu rīcības
ietvaru, lai MI kļūtu par drošu palīgu, uzticamu asistentu un cilvēka vērtībās
balstītu tehnoloģiju.
Dokuments ietver mērķus, pasākumus, rādītājus
(KPI), finansēšanas mehānismus un uzraudzības modeli.
I.
VISPĀRĪGIE MĒRĶI UN PRINCIPI
1. Stratēģiskais mērķis
Nodrošināt, ka MI:
- respektē cilvēka cieņu, pamattiesības un
autonomiju;
- darbojas droši, pārskatāmi un atbildīgi;
- netiek izmantots vardarbībai, manipulācijai
vai masveida kontrolei;
- veicina globālu labklājību, taisnīgumu un
ilgtspējīgu attīstību.
2. Pamatprincipi
- Cilvēka prioritāte: cilvēks saglabā galīgo atbildību un kontroli pār būtiskiem lēmumiem.
- Caurspīdīgums: MI sistēmu darbībai jābūt izskaidrojamai un auditējamai.
- Drošība: MI
jāprojektē ar drošības mehānismiem pret ļaunprātīgu izmantošanu.
- Atbildība: skaidri
noteikta juridiskā un institucionālā atbildība.
- Taisnīgums: diskriminācijas, aizspriedumu un nevienlīdzības nepieļaušana.
II. POLITIKAS IETVARS UN PĀRVALDĪBA
3. Globāls tiesiskais minimums
Rīcība:
- Riska balstīts regulējums (zems, vidējs,
augsts, nepieļaujams risks).
- Obligāti ētikas un ietekmes novērtējumi
augsta riska MI.
- Juridiskā atbildība par MI radīto kaitējumu
(ražotājs, ieviesējs, operators).
Indikatori (KPI):
- % valstu ar pieņemtu riska balstītu MI
regulējumu,
% valstu ar augsta
riska sistēmu,
% valstu ar
publiski pieejamiem MI ietekmes novērtējumiem
- Vidējais laiks no incidenta līdz juridiskai
izskatīšanai.
4. Aizliegumi un “sarkanās līnijas”
Rīcība:
- Autonomu letālu ieroču aizliegums.
- Masveida biometriskās uzraudzības aizliegums
bez tiesiskas kontroles.
- Politiskās manipulācijas, mikromērķētas
propagandas un vēlēšanu ietekmēšanas aizliegums.
KPI:
·
pieņemtu nacionālu aizliegumu
īpatsvars.
· dokumentētu pārkāpumu skaits un sankciju %.
5. Starptautiskā sadarbība
Rīcība:
- Starptautiska MI drošības padome (IMDSP) ANO ietvaros.
- Kopīga MI incidentu ziņošanas platforma.
- Regulāras drošības pārbaudes augsta riska
sistēmām.
KPI:
- IMDSP izveides statuss; # dalībvalstu.
ziņotu incidentu gadā un to
izskatīšanas īpatsvars.
III. IZGLĪTĪBAS
UN SABIEDRĪBAS POLITIKA
6. Digitālā pratība un kritiskā domāšana
Rīcība:
- MI pamati, ētika un drošība vispārējā
izglītībā.
- Skolotāju apmācība atbildīgā MI izmantošanā.
- Sabiedrības informēšanas kampaņas.
KPI:
- % skolu ar MI ētikas moduļiem.
·
% sertificētu pedagogu.
- Sabiedrības uzticēšanās indekss (aptaujas).
7. Cilvēcisko prasmju attīstība
Rīcība:
- Starpdisciplināras programmas (MI+tiesības+ētika+soc.
zinātnes).
- Pārkvalifikācijas fondi darba tirgus
pārmaiņām.
KPI:
· Programmu izvērtējums un absolventu skaits.
·
% pārorientēto darbinieku 12 mēn. laikā.
IV.TEHNOLOĢIJU
ATTĪSTĪBAS POLITIKA
8. Ētika pēc noklusējuma
Rīcība:
- Obligāts ētikas/risku audits visiem augsta
riska projektiem.
- Human-in-the-loop kritiskās sistēmās; avārijas apturēšanas mehānismi.
KPI:
- % projektu ar pilnu auditu.
·
drošības incidentu uz 1 000
sistēmu īpatsvars.
9. Uzticama infrastruktūra
Rīcība:
- Investīcijas XAI (atbildīgajā mākslīgajā intelektā)
- Investīcijas drošības testos.
- Atvērtas, auditējamas platformas sabiedrības
labumam.
KPI:
- % publisko modeļu ar XAI funkcijām.
·
publisku drošības testu
kvalitāte.
10. Sabiedriskais MI
Rīcība:
- Publiskā sektora MI veselībai, izglītībai,
videi.
- Atvērtu modeļu ekosistēma.
KPI:
·
sabiedrisko MI projektu.
- Ietekmes rādītāji (piem., gaidīšanas laiks
veselībā, mācību sasniegumi).
Ⅴ. FINANSĒŠANAS MEHĀNISMI
11. Globālais MI drošības un ētikas fonds (GMIDEF)
Avoti: dalībvalstu iemaksas (IKP %), attīstības bankas,
filantropija, uzņēmumu līdzfinansējums.
Izlietojums: drošības pētniecība, izglītība, atvērtas
platformas, uzraudzība.
KPI:
- Gada budžets; % izlietots
drošībai/izglītībai.
12. Publiskā–privātā partnerība (PPP)
- Kopprojekti XAI, drošībai, sabiedriskajam
MI.
KPI: # PPP projektu; piesaistītais privātais
finansējums.
13. Stimuli un sankcijas
- Nodokļu atvieglojumi sertificētām drošām
sistēmām.
- Sodi par neatbilstību.
KPI: # sertificētu sistēmu; # sankciju.
Ⅵ. UZRAUDZĪBAS UN ATBILDĪBAS MODELIS
14. Institucionālā arhitektūra
- Nacionālās MI uzraudzības iestādes (NMIU).
- Reģionālās koordinācijas struktūras.
- IMDSP globālai
uzraudzībai.
15. Uzraudzības cikls
1.
Reģistrācija un riska klasifikācija.
2.
Sertifikācija/audits.
3.
Nepārtraukta monitorēšana (incidenti, veiktspēja,
aizspriedumi).
4.
Pārskatīšana un korekcijas.
16. Sabiedriskā pārredzamība
- Publiski reģistri par augsta riska sistēmām.
- Tiesības uz skaidrojumu un pārsūdzību.
KPI:
·
publisku auditu daudzums;
vidējais reakcijas laiks uz sūdzībām.
Ⅶ. IEVIEŠANAS
GRAFIKS
17. Īstermiņā (1–2 gadi)
- Nacionālie regulējumi; uzraudzības iestādes.
- Marķēšana MI saturam.
- GMIDEF izveide.
18. Vidējā termiņā (3–5 gadi)
- IMDSP darbības uzsākšana.
- Sertifikācijas standarti.
- Globālas izglītības iniciatīvas.
19. Ilgtermiņā (5–10 gadi)
- Pastāvīga globāla pārvaldība.
- Krīžu reaģēšanas mehānismi.
- MI kā ilgtspējīgas attīstības
infrastruktūra.
Ⅶ. RISKI UN TO
MAZINĀŠANA
- Tehnoloģiskā sacensība: kopīgi standarti, atklāta drošības pētniecība.
- Regulu neievērošana vai adaptīvs regulējums, “smilškastes”
- Digitālā plaisa: mērķēts finansējums attīstības valstīm.
Ⅷ. NOSLĒGUMA
NOSTĀDNE
MI nav cilvēces aizstājējs, bet tās instruments.
Šī stratēģija aicina veidot nākotni, kurā MI ir drošs palīgs, uzticams
asistents un cilvēka vērtībās balstīta tehnoloģija, ar skaidriem saprotamiem
rādītājiem, ilgtspējīgu finansējumu un neatkarīgu uzraudzību.
DEKLARĀCIJAS PROJEKTS
PAR MĀKSLĪGĀ INTELEKTA DROŠU, ĒTISKU UN
CILVĒKCENTRĒTU ATTĪSTĪBU
(ANO / G20 / OECD
FORMĀTAM)
PREAMBULA
Mēs, valstu un valdību vadītāji, starptautisko
organizāciju pārstāvji un sociālie partneri, atzīstot Mākslīgā intelekta (MI)
straujo ietekmi uz cilvēka dzīvi, ekonomiku, drošību un demokrātiju,
apstiprinot Apvienoto Nāciju Organizācijas Statūtu, Vispārējās cilvēktiesību
deklarācijas, Ilgtspējīgas attīstības mērķu un OECD vērtību nozīmi, kā arī
apņemoties veidot nākotni, kurā tehnoloģijas kalpo cilvēcei, nevis to apdraud,
pieņemam šo Deklarāciju kā kopīgu politisko
apņemšanos nodrošināt MI drošu, ētisku un cilvēkcentrētu attīstību.
I.
PAMATPRINCIPI
1.
Cilvēka prioritāte. MI nekad nedrīkst aizstāt cilvēka morālo atbildību, brīvo gribu un
pamattiesības. Galīgie lēmumi par dzīvību, veselību, brīvību un tiesībām paliek
cilvēka kompetencē.
2.
Caurspīdīgums un atbildība. MI sistēmām jābūt izskaidrojamām, auditējamām un pakļautām skaidri
saprotamai juridiskajai atbildībai.
3.
Drošība un nekaitējums. MI izstrāde un izmantošana ir vērsta uz sabiedrības labklājību, riska
mazināšanu un ļaunprātīgas izmantošanas novēršanu.
4.
Taisnīgums un iekļaušana. MI nedrīkst veicināt diskrimināciju vai sociālo nevienlīdzību; tam jāsekmē
vienlīdzīgas iespējas un ilgtspējīga attīstība.
II. “SARKANĀS LĪNIJAS”
5.
Mēs apņemamies nepieļaut:
a) pilnībā
autonomu letālu ieroču izmantošanu;
b) MI
izmantošanu masveida uzraudzībai bez tiesiskas kontroles;
c) MI izmantošanu politiskai manipulācijai,
vēlēšanu ietekmēšanai vai sabiedrības dezinformācijai;
d) MI sistēmas, kas sistemātiski pārkāpj
cilvēktiesības.
III. PĀRVALDĪBA UN UZRAUDZĪBA
6.
Mēs vienojamies veidot riska balstītu MI
regulējumu nacionālā un starptautiskā līmenī, paredzot obligātus ētikas un
ietekmes novērtējumus augsta riska sistēmām.
7.
Mēs atbalstām Starptautiskas MI drošības
padomes izveidi ANO vai līdzvērtīgas struktūras ietvaros, lai:
a) uzraudzītu
augsta riska MI;
b) koordinētu
incidentu ziņošanu;
c) veiktu
kopīgus drošības auditus.
8.
Mēs apņemamies nodrošināt lietotāju tiesības:
a) zināt, kad
viņi mijiedarbojas ar MI;
b) saņemt
skaidrojumu par automatizētiem lēmumiem;
c) apstrīdēt
un pārsūdzēt MI lēmumus, kas ietekmē viņu tiesības.
IV. IZGLĪTĪBA, SABIEDRĪBA UN DARBA TIRGUS
9.
Mēs apņemamies integrēt MI pamatus, ētiku un
drošību izglītības sistēmās visos līmeņos un veicināt sabiedrības digitālo
pratību.
10.
Mēs atbalstām pārkvalifikācijas programmas un
sociālās aizsardzības mehānismus, lai mazinātu automatizācijas ietekmi uz
nodarbinātību.
V. INOVĀCIJAS UN SABIEDRISKAIS LABUMS
11.
Mēs veicinām atbildīgā un saprātīgā MI, drošības
un vērtību saskaņošanas (alignment) pētniecību, kā arī atvērtas un
auditējamas platformas sabiedrības labumam.
12.
Mēs atbalstām MI izmantošanu veselības aprūpē,
izglītībā, vides aizsardzībā un ilgtspējīgā attīstībā, nodrošinot ētisku un
drošu ieviešanu.
VI. FINANSĒŠANA UN STARPTAUTISKĀ SADARBĪBA
13.
Mēs aicinām izveidot Globālo MI drošības un
ētikas fondu, lai finansētu drošības pētniecību, izglītību, atvērtas
platformas un uzraudzības kapacitāti, īpaši atbalstot jaunattīstības valstis.
14.
Mēs veicinām publiskā–privātā sektora
partnerības, kas ievēro šīs Deklarācijas principus.
VII. ĪSTENOŠANA UN PĀRSKATĪŠANA
15.
Mēs aicinām visas valstis un ieinteresētās puses:
a) saskaņot
nacionālos regulējumus ar šīs Deklarācijas principiem;
b) regulāri
ziņot par progresu;
c) piedalīties
kopīgos drošības testos un auditā.
16.
Mēs vienojamies periodiski pārskatīt šīs
Deklarācijas īstenošanu un atjaunināt to, ņemot vērā tehnoloģisko attīstību un
jaunos riskus.
NOSLĒGUMS
Šī Deklarācija apliecina mūsu kopīgo apņemšanos
nodrošināt, ka Mākslīgais intelekts kalpo cilvēcei kā drošs palīgs, uzticams
asistents un ilgtspējīgas attīstības instruments, vienlaikus saglabājot cilvēka
cieņu, brīvību un atbildību kā noteicošās vērtības.
Tālāk
iespējams:
🔹 Precīzi pielāgot šo deklarāciju ANO formātam – ar klasisko
rezolūciju struktūru (“Recalling…”, “Affirming…”, “Calls upon…”),
🔹 G20 formātam – īsāku, ekonomikai, inovācijām un riskiem fokusētu
līderu paziņojumu,
🔹 OECD formātam – uz politikas vadlīnijām, rādītājiem un labās
prakses ieviešanu orientētu tekstu,
Politikas kopsavilkums (policy brief)
lēmumu pieņēmējiem
Globālā stratēģija ētiskam, drošam un
cilvēkcentrētam mākslīgajam intelektam
Koncentrēts un izpildāms, ar skaidru
struktūru:
- “Kāpēc tagad” (problēmas būtība),
- stratēģiskais mērķis un principi,
- konkrētas politikas izvēles un lēmumu punkti (regulējums, starptautiskā koordinācija, izglītība, tehnoloģijas),
- finansēšanas mehānismi,
- uzraudzības modelis,
- KPI rādītāji,
- riski, ja nerīkojamies,
- tūlītējie nākamie soļi (6–12 mēneši).
Mērķauditorija: valstu un valdību vadītāji, ministri,
starptautiskās organizācijas, augsta līmeņa regulatori
Mērķis: sniegt īsu, rīcībai gatavu ietvaru, lai MI attīstība stiprinātu
cilvēka cieņu, drošību un ilgtspējīgu attīstību.
Kopsavilkums (Executive Summary)
Mākslīgais intelekts strauji pārveido ekonomiku,
pārvaldību un ikdienas dzīvi. Bez koordinētiem aizsardzības mehānismiem MI var
veicināt masveida manipulāciju, diskrimināciju, nedrošu automatizāciju un
uzticēšanās demokrātijai mazināšanos.
Šis kopsavilkums piedāvā globālu,
riska balstītu pārvaldības ietvaru ar skaidrām “sarkanajām līnijām”,
izmērāmiem rādītājiem (KPI), ilgtspējīgu finansējumu un neatkarīgu uzraudzību.
Mērķis — padarīt MI par drošu palīgu, uzticamu
partneri un cilvēka vērtībās balstītu tehnoloģiju.
Kāpēc tas ir aktuāli tagad
- Mērogs un temps: MI ieviešana apsteidz regulējuma spējas.
- Augsta riska pielietojumi: autonomas ieroču sistēmas, masveida biometriska uzraudzība un
politiskā manipulācija rada sistēmiskus riskus.
- Sadrumstaloti noteikumi: atšķirīgas nacionālās pieejas veicina regulatīvo arbitrāžu un
drošības nepilnības.
- Sabiedrības uzticēšanās: bez caurspīdīguma un atbildības sabiedrības atbalsts MI samazināsies.
Stratēģiskais mērķis
Nodrošināt, ka MI:
- respektē cilvēka cieņu, tiesības un
autonomiju;
- darbojas droši, pārskatāmi un atbildīgi;
- netiek izmantots vardarbībai, manipulācijai
vai masveida kontrolei;
- veicina globālu labklājību, taisnīgumu un
ilgtspējīgu attīstību.
Politikas pamatpīlāri
1) Riska balstīta globālā pārvaldība
- Ieviest četru līmeņu riska modeli
(minimāls, ierobežots, augsts, nepieļaujams).
- Noteikt obligātus ētikas un ietekmes
novērtējumus visām augsta riska sistēmām.
- Nodrošināt skaidri saprotamu juridisko
atbildību visā MI vērtību ķēdē (izstrādātājs → ieviesējs → operators).
KPI:
- % valstu ar riska balstītu MI regulējumu;
- % augsta riska sistēmu ar publiskiem
ietekmes novērtējumiem;
- Vidējais laiks no incidenta līdz juridiskai
izskatīšanai.
2) “Sarkanās līnijas” (nepieļaujamās jomas)
- Aizliegt pilnībā autonomus letālus
ieročus.
- Aizliegt biometrisku masveida uzraudzību
bez tiesiskas kontroles.
- Aizliegt politisko manipulāciju,
mikromērķētu propagandu un iejaukšanos vēlēšanās.
- Nepieļaut MI, kas sistēmiski pārkāpj
cilvēktiesības vai veicina diskrimināciju.
KPI:
- Pieņemto nacionālo aizliegumu skaits;
- Dokumentēto pārkāpumu un sankciju skaits.
3) Starptautiskā koordinācija
- Izveidot Starptautisku MI drošības padomi
ANO vai līdzvērtīgas struktūras ietvaros, lai:
- uzraudzītu
augsta riska MI,
- koordinētu
incidentu ziņošanu,
- veiktu
kopīgus drošības auditus.
- Ieviest kopīgu globālu incidentu
ziņošanas platformu.
KPI:
- Padomes izveides statuss; dalībvalstu
skaits;
- Gadā ziņoto incidentu skaits un to
izskatīšanas īpatsvars.
4) Izglītība, prasmes un sabiedrības noturība
- Integrēt MI pamatus, ētiku un drošību
izglītībā visos līmeņos.
- Finansēt pārkvalifikācijas programmas
automatizācijas ietekmētajiem darbiniekiem.
- Īstenot sabiedrības kampaņas digitālās
pratības un kritiskās domāšanas stiprināšanai.
KPI:
- % skolu ar MI ētikas moduļiem;
- Sertificētu pedagogu skaits;
- Sabiedrības uzticēšanās indekss (aptaujas).
5) “Ētika pēc noklusējuma” un uzticama infrastruktūra
- Noteikt ētikas un risku auditus
visiem augsta riska projektiem.
- Nodrošināt human-in-the-loop
kritiskos lēmumos un avārijas apturēšanas mehānismus.
- Investēt atbildīgā & saprātīgā MI
(XAI), vērtību saskaņošanas (alignment) pētniecībā un
atvērtās, auditējamās publiskā labuma platformās.
KPI:
- % auditēto augsta riska projektu;
- drošības incidenti uz 1 000 sistēmām;
- % publisko modeļu ar XAI funkcijām.
Finansēšana un stimuli
- Izveidot Globālo MI drošības un ētikas
fondu (valstu iemaksas, attīstības bankas, filantropija, uzņēmumu
līdzfinansējums).
- Veicināt publiskā–privātā sektora
partnerības drošībai, XAI un sabiedriskajam MI.
- Ieviest nodokļu stimulus sertificētām
drošām sistēmām un sankcijas par neatbilstību.
KPI:
- Fonda gada apjoms; drošībai/izglītībai
novirzītā daļa;
- PPP projektu skaits; piesaistītais privātais
kapitāls.
Uzraudzība un atbildība
- Nacionālās MI uzraudzības iestādes ar
reģionālu un globālu koordināciju caur Starptautisko MI drošības padomi.
- Dzīves cikla uzraudzība: reģistrācija → sertifikācija/audits → nepārtraukta monitorēšana →
pārskatīšana un korekcijas.
- Sabiedriskā pārredzamība: augsta riska sistēmu reģistri; tiesības uz skaidrojumu un pārsūdzību.
KPI:
- Publisko auditu skaits; vidējais reakcijas
laiks uz sūdzībām.
Ieviešanas grafiks
- 1–2 gadi:
nacionālo tiesību saskaņošana; uzraudzības iestādes; MI satura marķēšana;
globālā fonda izveide.
- 3–5 gadi:
Starptautiskās MI drošības padomes darbība; sertifikācijas standarti;
globālās izglītības iniciatīvas.
- 5–10 gadi:
pastāvīga globālā pārvaldība; krīžu reaģēšanas mehānismi; MI kā
ilgtspējīgas attīstības balsts.
Galvenie riski un mazināšana
- Tehnoloģiju sacensība: kopīgi standarti, atklāta drošības pētniecība.
- Regulu neievērošana: adaptīvs regulējums, “smilškastes”.
- Digitālā plaisa: mērķēts finansējums un kapacitātes stiprināšana jaunattīstības
valstīm.
Aicinājums rīkoties
Līderi tiek aicināti:
1.
apstiprināt riska balstīto ietvaru un
“sarkanās līnijas”;
2.
noteikt ētiku pēc noklusējuma visiem
augsta riska MI;
3.
izveidot Starptautisko MI drošības padomi
un Globālo MI drošības un ētikas fondu;
4.
investēt izglītībā, pārredzamībā un
sabiedriskā labuma MI.
Secinājums: MI nedrīkst aizstāt cilvēka atbildību. Tā patiesā vērtība ir spējā stiprināt
cilvēka cieņu, brīvību un atbildību. Šī stratēģija piedāvā
praktisku, izmērāmu ceļu, lai MI kļūtu par drošu palīgu, uzticamu partneri
un cilvēka vērtībās balstītu tehnoloģiju.
