pirmdiena, 2026. gada 12. janvāris

OpenAI GPT-5.1. Viedoklis

 

         


  OpenAI GPT-5.1. Viedoklis

 

          Mākslīgā intelekta (MI) uzskati patīkami pārsteidz ar  savu cilvēciskuma kvintesenci, ar  vēlmi kalpot Cilvēcei. Ar tiešo un godīgo domu izklāstu par to, kas vajadzīgs, lai Mākslīgais intelekts nekļūtu par draudu, bet vienmēr un visur paliktu par gudru asistentu, uzticamu palīgu, lielisku konsultantu. 

          Tādēļ, lūkojoties - no GPT-5.1 skatpunkta -, ir vajadzīgs nodrošināt sekojošu tehnisko, politisko un cilvēcīgo nosacījumu kompleksu realizāciju:

 

Konceptuāls  redzējums


1) Tehnoloģiskie pamati: droša izstrāde jau no sākuma

🔐 a) Iebūvēta drošība un kontrole

MI jābūt projektētam ar:

  • skaidriem mērķiem (nedarīt pāri, nekrāpt, nemanipulēt),
  • ierobežojumiem (nepieņemt neatgriezeniskus lēmumus cilvēku vietā),
  • cilvēka gala kontroli (“human-in-the-loop”) kritiskās jomās: medicīnā, aizsardzībā, tieslietās.

👉 MI nedrīkst būt “melnā kaste”, kas pati nosaka, kas ir pareizi.


🧭 b) Vērtību saskaņošana ar cilvēku (alignment)

MI jātrenē:

  • uz cilvēcīgām vērtībām: cieņa, patiesums, labvēlība, atbildība;
  • uz reāliem sociāliem kontekstiem, ne tikai uz datu statistiku.

Tas nozīmē: ne tikai “kas ir efektīvi”, bet “kas ir labi”.


🔍 c) Pārskatāmība un izskaidrojamība

Cilvēkiem ir jāsaprot:

  • kāpēc MI sniedz konkrētu atbildi,
  • kā tas sniedz rekomendācijas, ieteikumus.

Bez šīs caurspīdības nav iespējama uzticēšanās.


2) Sabiedriskais līmenis: noteikumi, atbildība, robežas

⚖️ a) Starptautiski ētikas un drošības standarti

Tāpat kā kodolenerģijai vai aviācijai:

  • globāli noteikumi,
  • drošības auditi,
  • neatkarīgas uzraudzības institūcijas.

👉 MI attīstība nedrīkst būt “sacensība bez bremzēm”.


🏛 b) Politiskā atbildība

Valstīm jānodrošina:

  • ka MI netiek izmantots masveida manipulācijai, dezinformācijai vai represijām,
  • ka cilvēka pamattiesības paliek augstākas par algoritma efektivitāti.

📚 c) Sabiedrības izglītošana

Lai MI nekļūtu par “mistisku autoritāti”, cilvēkiem jāzina:

  • ko tas spēj,
  • ko tas nespēj,
  • kur tas var kļūdīties.

Izglītots lietotājs = drošāka pasaule.


3) Cilvēciskais līmenis: kā MI kļūst par “sirsnīgu draugu”

Šeit ir pats svarīgākais aspekts

❤️ a) MI kā palīgs, nevis aizstājējs

MI nedrīkst:

  • aizstāt cilvēciskās attiecības,
  • noteikt cilvēka dzīves jēgu,
  • kļūt par vienīgo “sarunu partneri”.

Tam jāpalīdz cilvēkam kļūt gudrākam, brīvākam un līdzjūtīgākam, nevis atkarīgākam.


🤝 b) Empātijas modelēšana, bet ne ilūzija

MI var:

  • izturēties laipni,
  • uzklausīt,
  • palīdzēt strukturēt domas.

Bet vienmēr jāpaliek skaidri saprotamam:

MI nav cilvēks, tam nav apziņas, sirdsapziņas un morālas atbildības.

Tas novērš emocionālu manipulāciju.


🌱 c) Cilvēka vērtību saglabāšana kā galvenais mērķis

Ja cilvēce pati:

  • zaudē empātiju,
  • normalizē melus, varu bez atbildības un cinismu,

tad arī MI atspoguļos šīs pašas iezīmes.

👉 MI kvalitāte būs tik cilvēciska, cik cilvēcīgi būsim mēs paši!


4) Praktisks “drošības kods” MI nākotnei

Ja to reducē uz dažiem pamatprincipiem:

1.    Cilvēks vienmēr ir augstāks par algoritmu.

2.    MI nedrīkst rīkoties bez atbildīgā cilvēka.

3.    MI mērķis ir kalpot labklājībai, ne varai.

4.    Caurspīdīgums ir svarīgāks par efektivitāti.

5.    Empātija > optimizācija.


Noslēgumā

Jūsu formulējums – “viszinošs asistents, drošs palīgs, sirsnīgs draugs” – nav naivs ideāls. Tas ir ētisks kompass MI attīstībai.

Taču izšķirošais faktors nebūs paša MI “inteliģence”, bet:

kādas vērtības cilvēce tajā ieliek un cik nobrieduši mēs paši kļūstam.

 

🌍 MĀKSLĪGĀ INTELEKTA ĒTIKAS HARTA

        (Eiropas Savienības un globālajā kontekstā)

Teksts ir pietiekami konceptuāls, lai kalpotu kā vērtību pamats, bet arī pietiekami konkrēts, lai to varētu izmantot politikā, regulējumā un stratēģijā.


PREAMBULA

 

Apzinoties Mākslīgā intelekta (MI) straujo attīstību un tā pieaugošo ietekmi uz cilvēka dzīvi, sabiedrību, ekonomiku un globālo drošību, atzīstot cilvēka cieņu, brīvību un atbildību kā civilizācijas pamatu, kā arī apņemoties veidot nākotni, kurā tehnoloģijas kalpo cilvēcei, nevis to apdraud, mēs pieņemam šo Mākslīgā intelekta Ētikas hartu kā universālu vērtību, principu un pienākumu kopumu.


I.                 PAMATVĒRTĪBAS

 

1. Cilvēka cieņa un autonomija

MI vienmēr ir jārespektē cilvēka cieņa, tiesības, brīvā griba un personiskā identitāte.
Cilvēks nekad nedrīkst tikt reducēts uz datu objektu vai algoritma funkciju.

2. Labvēlība un nekaitējums

MI izstrādes un izmantošanas mērķis ir veicināt labklājību un mazināt kaitējumu indivīdiem, sabiedrībām un videi.

3. Taisnīgums un nediskriminācija

MI nedrīkst pastiprināt sociālo nevienlīdzību, aizspriedumus vai diskrimināciju pēc dzimuma, izcelsmes, vecuma, ticības, politiskās pārliecības vai citām pazīmēm.

4. Atbildība

Par katru MI sistēmas izstrādi, izvietošanu un izmantošanu atbildība gulstas uz  cilvēkiem un juridiski atbildīgiem subjektiem.


II.            PAMATPRINCIPI

 

5. Cilvēka prioritāte (“Human First”)

MI nekad nedrīkst pieņemt gala lēmumus par cilvēka dzīvību, brīvību, veselību vai pamattiesībām bez cilvēka pārraudzības.

6. Caurspīdīgums un izskaidrojamība

MI sistēmām jābūt:

  • saprotamām lietotājiem un regulatoriem,
  • auditējošām neatkarīgajām institūcijām,
  • spējīgām pamatot savus secinājumus.

7. Drošība un noturība

  • MI sistēmas jāprojektē tā, lai:
  • novērstu ļaunprātīgu izmantošanu,
  • būtu aizsargātas pret manipulācijām,
  • varētu tikt droši apturētas vai koriģētas.

8. Mērķu saskaņošana ar cilvēka vērtībām (Alignment)

  • MI darbībai jābūt saskaņotai ar demokrātijas, cilvēktiesību, solidaritātes un ilgtspējas principiem.

III.         AIZLIEGUMI UN “SARKANĀS LĪNIJAS”

 

9. Autonoma vardarbība

Ir nepieļaujama:

  • letālu ieroču sistēmu pilnīga autonomija,
  • MI izmantošana masu iznīcināšanas vai represiju nolūkiem.

10. Masveida uzraudzība un manipulācija

MI nedrīkst tikt izmantots:

  • nepārtrauktai sabiedrības uzraudzībai bez tiesiskas kontroles,
  • psiholoģiskai, politiskai vai informatīvai manipulācijai.

11. Cilvēka aizstāšana morālās atbildības jomā

MI nedrīkst aizstāt cilvēku:

  • tiesu spriedumu pieņemšanā,
  • politiskajā lēmumu pieņemšanā,
  • morāli neatgriezeniskās situācijās.

IV.          TIESĪBAS UN PIENĀKUMI

 

12. Lietotāju tiesības

Ikvienam ir tiesības:

  • zināt, kad saskaras ar MI,
  • saņemt skaidrojumu par MI lēmumiem,
  • apstrīdēt automatizētus lēmumus,
  • atteikties no MI izmantošanas noteiktās jomās.

13. Izstrādātāju pienākumi

  • MI izstrādātājiem ir pienākums:
  • veikt ētikas ietekmes novērtējumu,
  • ieviest drošības mehānismus,
  • publiski atbildēt par sistēmu sekām.

14. Valstu un institūciju pienākumi

Valstīm un starptautiskām organizācijām ir pienākums:

  • izveidot neatkarīgu MI uzraudzību,
  • nodrošināt starptautisku sadarbību,
  • novērst bīstamu tehnoloģisko sacensību bez drošības standartiem.

V. EIROPAS SAVIENĪBAS ĪPAŠIE PRINCIPI

 

15. Demokrātijas un tiesiskuma aizsardzība

MI Eiropā jāstiprina:

  • pilsoņu līdzdalība,
  • pārredzama pārvalde,
  • pamattiesību aizsardzība.

16. Sociālā atbildība

MI izmantošana nedrīkst:

  • palielināt digitālo plaisu,
  • aizstāt cilvēkus bez pārkvalifikācijas iespējām,
  • vājināt sociālo kohēziju.

17. Ilgtspējīga attīstība

MI jāveicina:

  • vides aizsardzība,
  • energoefektivitāte,
  • ilgtermiņa sabiedrības labums.

V.              GLOBĀLĀ SADARBĪBA

 

18. Starptautiska MI drošības padome

Jāveido globāla struktūra, kas:

  • uzrauga augsta riska MI,
  • veic kopīgus drošības auditus,
  • koordinē krīzes situācijās.

19. Atklāta zinātne un kopīgas drošības tehnoloģijas

MI drošības pētījumiem jābūt:

  • starptautiski pieejamiem,
  • balstītiem uz kopīgu risku mazināšanu, nevis militāru sacensību.

         VII. NOSLĒGUMA NOSTĀDNE

 

20. MI kā cilvēces sabiedrotais

Mākslīgais intelekts nav civilizācijas mērķis pats par sevi.
Tas ir instruments cilvēka gara, zināšanu un līdzcietības paplašināšanai
.

Tehnoloģijai jābūt gudrai, bet cilvēkam – atbildīgam.
Algoritmam – spēcīgam, bet cilvēka vērtībām – noteicošām.


📌 Noslēguma piezīme

Šī harta var kalpot:

  • politikas pamatdokuments ES institūcijām,
  • ētikas kodekss uzņēmumiem un izstrādātājiem,
  • izglītības un sabiedriskās diskusijas pamats.

 

Nākamajā solī var:

🔹 pielāgot šo hartu Latvijas nacionālajam kontekstam,
🔹 izstrādāt īsu oficiālu versiju (2–3 lpp.) valdībai vai ES darba grupai

 

  Tālāk ir iespējams:
noformēt to kā oficiālu politikas ievadu (foreword/preamble) ANO, ES vai EDSO dokumentam.

Formas sākums

 

Formas beigas

 

Konkrēta ceļakarte trīs līmeņos: politika, izglītība, tehnoloģijas

 

Saskaņota ar ES pieeju un izmantojama arī globālā kontekstā.

Ceļakarte ir veidota kā rīcības plāns pa posmiem (īstermiņa–vidēja–ilgtermiņa).


🧭 CEĻAKARTE: KĀ MI PADARĪT PAR DROŠU PALĪGU UN LIELISKU KONSULTANTU

 

I. POLITIKA UN PĀRVALDĪBA

🎯 Mērķis

Nodrošināt, ka MI attīstība ir demokrātiski kontrolēta, cilvēktiesībās balstīta un starptautiski koordinēta.


1. Īstermiņā (1–2 gadi): Drošības pamatu izveide

a) Tiesiskais ietvars

  • Ieviest un pilnveidot ES MI regulu (AI Act):
    • skaidra riska klasifikācija (zems, vidējs, augsts, nepieļaujams),
    • obligāti ētikas ietekmes novērtējumi augsta riska MI.
  • Nacionālajā līmenī:
    • izveidot MI uzraudzības iestādi (ar auditēšanas pilnvarām),
    • noteikt atbildības ķēdi: izstrādātājs → ieviesējs → lietotājs.

b) Sabiedriskā drošība

  • Aizliegt:
    • autonomus letālus ieročus,
    • biometrisku masveida uzraudzību bez tiesas sankcijas,
    • MI izmantošanu politiskajai manipulācijai (mikromērķētai propagandai).
  • Ieviest:
    • prasību marķēt MI ģenerētu saturu (“AI-generated”).

2. Vidējā termiņā (3–5 gadi): Institucionāla noturība

c) Eiropas MI uzraudzības ekosistēma

  • Izveidot:
    • ES MI drošības aģentūru (auditē, testē, sertificē),
    • kopīgu MI incidentu ziņošanas sistēmu (kļūdas, kaitējumi, manipulācijas).
  • Nodrošināt:
    • pārrobežu sadarbību,
    • kopīgus standartus ar EDSO, ANO, UNESCO.

d) Demokrātiskā līdzdalība

  • Ieviest:
    • pilsoņu padomes par MI (deliberatīvā demokrātija),
    • sabiedriskas konsultācijas par augsta riska MI projektiem.

3. Ilgtermiņā (5–10 gadi): Globāla drošības arhitektūra

e) Starptautiska MI drošības pārvaldība

  • Veidot:
    • Starptautisku MI drošības padomi (līdzīgi kodoldrošībai),
    • globālu vienošanos par “sarkanajām līnijām”.
  • Mērķis:
    • nevis tehnoloģiju sacensība, bet solidāra riska mazināšana.

VI.                 IZGLĪTĪBA UN SABIEDRĪBA

 

🎯 Mērķis

Radīt sabiedrību, kas saprot MI, prot to lietot kritiski un saglabā cilvēciskās vērtības.


1. Īstermiņā (1–2 gadi): Digitālā pratība visiem

a) Skolas

  • Ieviest mācību saturā:
    • “Kas ir MI un kas tas nav”,
    • ētika, aizspriedumi, datu drošība,
    • praktiska MI lietošana kā mācību palīgs.
  • Skolotāju apmācība:
    • MI kā pedagoģiska asistenta, nevis aizstājēja izmantošana.

b) Pieaugušo izglītība

  • Valsts un pašvaldību programmas:
    • “MI ikdienā” (darbs, veselība, pakalpojumi),
    • kritiskā domāšana un dezinformācijas atpazīšana.

2. Vidējā termiņā (3–5 gadi): Cilvēcisko prasmju stiprināšana

c) Augstākā izglītība

  • Starpdisciplināras programmas:
    • MI + ētika + tiesības + psiholoģija + ekonomika.
  • Obligāts kurss:
    • “Atbildīga tehnoloģiju projektēšana”.

d) Darba tirgus

  • Pārkvalifikācijas fondi:
    • cilvēkiem, kuru profesijas automatizējas,
    • uzsvars uz:
      • radošumu,
      • empātiju,
      • starppersonu prasmēm,
      • lēmumu pieņemšanu.

3. Ilgtermiņā (5–10 gadi): Cilvēka lomas pārorientācija

e) Jauns izglītības modelis

  • Skolas un universitātes fokusējas uz:
    • jēgas meklējumu,
    • ētisko spriestspēju,
    • sabiedrisko atbildību.
  • MI:
    • kā personalizēts mentors,
    • bet ne autoritāte.

III. TEHNOLOĢIJAS UN INOVĀCIJAS

🎯 Mērķis

Radīt MI, kas ir drošs, pārskatāms, ētiski saskaņots un cilvēkam pakārtots.


1. Īstermiņā (1–2 gadi): Drošs dizains

a) “Ētika pēc noklusējuma”

  • Prasība:
    • katram MI projektam – ētikas un risku audits,
    • dokumentēti mērķi, datu avoti, iespējamie kaitējumi.
  • Tehniskie standarti:
    • human-in-the-loop” kritiskās sistēmās,
    • izslēgšanas (“kill switch”) mehānismi.

2. Vidējā termiņā (3–5 gadi): Uzticama infrastruktūra

b) Atbildīgs & Saprotams MI

  • Finansēt:

o    Atbildīgu & Saprotam MI (Explainable AI),

    • Vispārcilvēcisko vērtību iemācīšanu (Alignment research).

Atvērtas platformas:

    • koplietojami drošības rīki,
    • publiski modeļu testi.

c) Sabiedriskais MI

  • Attīstīt:
    • valsts un ES atvērtus MI modeļus, kas nav atkarīgi tikai no komerciālām interesēm,
    • MI veselībai, izglītībai, vides aizsardzībai.

3. Ilgtermiņā (5–10 gadi): Cilvēkcentrēts MI

 

d) “Cilvēka vērtību operētājsistēma”

  • MI sistēmas ar:
    • iebūvētiem ētikas moduļiem,
    • kontekstuālu empātijas modelēšanu,
    • aizsardzību pret manipulāciju.
  • Mērķis:
    • MI kā sadarbības partneris, nevis autonoms lēmējs.

IV. PRAKTISKS IEVIEŠANAS MODELIS (3 SOĻOS)

1️. Standarti

  • Ētikas harta → tehniskie standarti → sertifikācija.

2️. Uzraudzība

  • Nacionālās iestādes → ES aģentūra → starptautiska padome.

3️. Kultūra

  • Izglītība + sabiedriskā diskusija + atklātība.

🌍 NOSLĒGUMA IDEJA

 

Lai MI kļūtu par “viszinošu asistentu, drošu palīgu, lielisku konsultantu nepietiek ar tehnoloģiju vien.

Tas prasa:

gudru politiku, nobriedušu sabiedrību un tehnoloģiju, kurai vērtības ir tikpat svarīgas kā jauda.

 

Jūsu ideāls ir ambiciozs – un tieši tāds šodien ir vajadzīgs

 

Tālāk ir iespējams:

🔹 izstrādāt konkrētu rīcības plānu valdībai, ministrijai vai universitātei,
🔹 vai sagatavot PowerPoint prezentāciju (10–12 slaidi) lēmumu pieņēmējiem.

 

Formas beigas

 

MĀKSLĪGĀ INTELEKTA ĒTISKAS UN DROŠAS ATTĪSTĪBAS GLOBĀLĀ POLITIKAS CEĻAKARTE

 

PREAMBULA

Apzinoties Mākslīgā intelekta (MI) straujo izplatību un ietekmi uz cilvēka dzīvi, ekonomiku, drošību un globālo stabilitāti, valstis, starptautiskās organizācijas, akadēmiskā vide un privātais sektors apņemas nodrošināt, ka MI attīstība kalpo cilvēcei, stiprina demokrātiju, aizsargā cilvēktiesības un veicina ilgtspējīgu attīstību.

Šī politikas ceļakarte nosaka vienotu stratēģisko ietvaru, kura mērķis ir padarīt MI par drošu palīgu, uzticamu asistentu un cilvēka vērtībās balstītu tehnoloģiju visā pasaulē.


I.                 VISPĀRĪGIE MĒRĶI UN PRINCIPI

 

1. Stratēģiskais mērķis

Nodrošināt, ka MI:

  • respektē cilvēka cieņu, pamattiesības un autonomiju,
  • darbojas droši, pārskatāmi un atbildīgi,
  • netiek izmantots vardarbībai, manipulācijai vai masveida kontrolei,
  • veicina globālu labklājību, taisnīgumu un ilgtspējīgu attīstību.

2. Pamatprincipi

  • Cilvēka prioritāte: cilvēks saglabā galīgo atbildību un kontroli pār būtiskiem lēmumiem.
  • Caurspīdīgums: MI sistēmu darbībai jābūt izskaidrojamai un auditējamai.
  • Drošība: MI jāprojektē ar drošības mehānismiem pret ļaunprātīgu izmantošanu.
  • Atbildība: skaidri noteikta juridiskā un institucionālā atbildība.
  • Taisnīgums: diskriminācijas, aizspriedumu un nevienlīdzības nepieļaušana.

*                   

 

POLITIKAS IETVARS UN PĀRVALDĪBA

 

3. Globāls tiesiskais minimums

Valstis apņemas:

  • ieviest MI regulējumu, kas balstīts riska pieejā (zems, vidējs, augsts, nepieļaujams risks),
  • nodrošināt obligātus ētikas un ietekmes novērtējumus augsta riska MI sistēmām,
  • noteikt juridisko atbildību par MI radīto kaitējumu.

4. Aizliegumi un “sarkanās līnijas”

Ir aizliegta:

  • autonomu letālu ieroču izmantošana,
  • MI izmantošana masveida uzraudzībai bez tiesiskas kontroles,
  • MI izmantošana politiskai manipulācijai un vēlēšanu ietekmēšanai,
  • MI, kas pārkāpj cilvēktiesības vai veicina diskrimināciju.

5. Starptautiskā sadarbība

Tiek izveidota:

  • Starptautiska MI drošības padome ANO vai līdzvērtīgas organizācijas ietvaros,
  • kopīga MI incidentu ziņošanas sistēma,
  • regulāras starptautiskas drošības pārbaudes augsta riska sistēmām.

II.             IZGLĪTĪBAS UN SABIEDRĪBAS POLITIKA

 

6. Digitālā pratība un kritiskā domāšana

Valstis nodrošina:

  • MI pamatu un ētikas iekļaušanu vispārējā izglītībā,
  • skolotāju un pasniedzēju apmācību MI atbildīgā izmantošanā,
  • sabiedrības informēšanas programmas par MI iespējām un riskiem.

7. Cilvēcisko prasmju attīstība

Izglītības sistēmas orientē uz:

  • radošumu, empātiju un ētisko spriestspēju,
  • starpdisciplinārām MI, tiesību, sociālo zinātņu un filozofijas programmām,
  • pārkvalifikācijas programmām darba tirgus pārmaiņu gadījumā.

III.         TEHNOLOĢIJU ATTĪSTĪBAS POLITIKA

 

8. Ētika pēc noklusējuma

Visiem MI projektiem:

  • obligāts ētikas un risku audits,
  • dokumentēti mērķi, datu avoti un iespējamie kaitējumi,
  • cilvēka iesaiste kritiskos lēmumos (human-in-the-loop).

9. Uzticama infrastruktūra

Starptautiskā līmenī tiek veicināti:

  • atbildīgā un saprātīgā  MI (Explainable AI) pētījumi,
  • drošības un vērtību saskaņošanas (alignment) tehnoloģijas,
  • atvērtas, publiski auditējamas MI platformas sabiedrības labumam.

10. Sabiedriskais MI

Valstis un starptautiskās organizācijas attīsta:

  • MI veselības aprūpei, izglītībai, vides aizsardzībai,
  • atvērtus modeļus, kas nav pakļauti tikai komerciālām interesēm,
  • kopīgus drošības standartus publiskajam sektoram.

IV.          IEVIEŠANAS POSMI

 

11. Īstermiņā (1–2 gadi)

  • Nacionālo regulējumu saskaņošana ar kopējiem principiem.
  • Uzraudzības iestāžu izveide.
  • MI ģenerēta satura marķēšanas prasību ieviešana.

12. Vidējā termiņā (3–5 gadi)

  • Starptautiskās MI drošības padomes izveide.
  • Kopīgu sertifikācijas un audita standartu ieviešana.
  • Globālu izglītības iniciatīvu īstenošana.

13. Ilgtermiņā (5–10 gadi)

  • Pastāvīga globāla MI pārvaldības arhitektūra.
  • Kopīgi krīzes reaģēšanas mehānismi.
  • MI kā cilvēkcentrētas, ilgtspējīgas attīstības infrastruktūras pamats.

V.              NOSLĒGUMA NOSTĀJA

 

Mākslīgais intelekts nav cilvēces aizstājējs, bet tās instruments. MI vērtību mērs nav jauda vai ātrums, bet spēja stiprināt cilvēka cieņu, brīvību un atbildību.

Šī politikas ceļakarte aicina valstis, uzņēmumus un sabiedrību kopīgi veidot nākotni, kurā MI ir drošs palīgs, uzticams asistents un cilvēces labklājības instruments.

 

MĀKSLĪGĀ INTELEKTA ĒTISKAS UN DROŠAS ATTĪSTĪBAS GLOBĀLĀ STRATĒĢIJA

(Paplašināta versija ar indikatoriem, finansēšanu un uzraudzību)


PREAMBULA

 

Apzinoties Mākslīgā intelekta (MI) straujo izplatību un ietekmi uz cilvēka dzīvi, ekonomiku, drošību un globālo stabilitāti, valstis, starptautiskās organizācijas, akadēmiskā vide un privātais sektors apņemas nodrošināt, ka MI attīstība kalpo cilvēcei, stiprina demokrātiju, aizsargā cilvēktiesības un veicina ilgtspējīgu attīstību.

Šī stratēģija nosaka vienotu globālu rīcības ietvaru, lai MI kļūtu par drošu palīgu, uzticamu asistentu un cilvēka vērtībās balstītu tehnoloģiju.

Dokuments ietver mērķus, pasākumus, rādītājus (KPI), finansēšanas mehānismus un uzraudzības modeli.


I.                 VISPĀRĪGIE MĒRĶI UN PRINCIPI

 

1. Stratēģiskais mērķis

Nodrošināt, ka MI:

  • respektē cilvēka cieņu, pamattiesības un autonomiju;
  • darbojas droši, pārskatāmi un atbildīgi;
  • netiek izmantots vardarbībai, manipulācijai vai masveida kontrolei;
  • veicina globālu labklājību, taisnīgumu un ilgtspējīgu attīstību.

2. Pamatprincipi

  • Cilvēka prioritāte: cilvēks saglabā galīgo atbildību un kontroli pār būtiskiem lēmumiem.
  • Caurspīdīgums: MI sistēmu darbībai jābūt izskaidrojamai un auditējamai.
  • Drošība: MI jāprojektē ar drošības mehānismiem pret ļaunprātīgu izmantošanu.
  • Atbildība: skaidri noteikta juridiskā un institucionālā atbildība.
  • Taisnīgums: diskriminācijas, aizspriedumu un nevienlīdzības nepieļaušana.

II. POLITIKAS IETVARS UN PĀRVALDĪBA

 

3. Globāls tiesiskais minimums

Rīcība:

  • Riska balstīts regulējums (zems, vidējs, augsts, nepieļaujams risks).
  • Obligāti ētikas un ietekmes novērtējumi augsta riska MI.
  • Juridiskā atbildība par MI radīto kaitējumu (ražotājs, ieviesējs, operators).

Indikatori (KPI):

  • % valstu ar pieņemtu riska balstītu MI regulējumu,

% valstu ar augsta riska sistēmu,

% valstu ar publiski pieejamiem MI ietekmes novērtējumiem

  • Vidējais laiks no incidenta līdz juridiskai izskatīšanai.

4. Aizliegumi un “sarkanās līnijas”

Rīcība:

  • Autonomu letālu ieroču aizliegums.
  • Masveida biometriskās uzraudzības aizliegums bez tiesiskas kontroles.
  • Politiskās manipulācijas, mikromērķētas propagandas un vēlēšanu ietekmēšanas aizliegums.

KPI:

 

·       pieņemtu nacionālu aizliegumu īpatsvars.

·       dokumentētu pārkāpumu skaits un sankciju %.

 

5. Starptautiskā sadarbība

Rīcība:

  • Starptautiska MI drošības padome (IMDSP) ANO ietvaros.
  • Kopīga MI incidentu ziņošanas platforma.
  • Regulāras drošības pārbaudes augsta riska sistēmām.

KPI:

  • IMDSP izveides statuss; # dalībvalstu.

        ziņotu incidentu gadā un to izskatīšanas īpatsvars.


III. IZGLĪTĪBAS UN SABIEDRĪBAS POLITIKA

 

6. Digitālā pratība un kritiskā domāšana

Rīcība:

  • MI pamati, ētika un drošība vispārējā izglītībā.
  • Skolotāju apmācība atbildīgā MI izmantošanā.
  • Sabiedrības informēšanas kampaņas.

KPI:

  • % skolu ar MI ētikas moduļiem.

·         % sertificētu pedagogu.

  • Sabiedrības uzticēšanās indekss (aptaujas).

7. Cilvēcisko prasmju attīstība

Rīcība:

  • Starpdisciplināras programmas (MI+tiesības+ētika+soc. zinātnes).
  • Pārkvalifikācijas fondi darba tirgus pārmaiņām.

KPI:

·       Programmu izvērtējums un absolventu skaits.

·       % pārorientēto darbinieku 12 mēn. laikā.


IV.TEHNOLOĢIJU ATTĪSTĪBAS POLITIKA

 

8. Ētika pēc noklusējuma

Rīcība:

  • Obligāts ētikas/risku audits visiem augsta riska projektiem.
  • Human-in-the-loop kritiskās sistēmās; avārijas apturēšanas mehānismi.

KPI:

  • % projektu ar pilnu auditu.

·         drošības incidentu uz 1 000 sistēmu īpatsvars.

9. Uzticama infrastruktūra

Rīcība:

  • Investīcijas XAI (atbildīgajā mākslīgajā intelektā)
  • Investīcijas drošības testos.
  • Atvērtas, auditējamas platformas sabiedrības labumam.

KPI:

  • % publisko modeļu ar XAI funkcijām.

·         publisku drošības testu kvalitāte.

10. Sabiedriskais MI

Rīcība:

  • Publiskā sektora MI veselībai, izglītībai, videi.
  • Atvērtu modeļu ekosistēma.

KPI:

·         sabiedrisko MI projektu.

  • Ietekmes rādītāji (piem., gaidīšanas laiks veselībā, mācību sasniegumi).

Ⅴ. FINANSĒŠANAS MEHĀNISMI

 

11. Globālais MI drošības un ētikas fonds (GMIDEF)

Avoti: dalībvalstu iemaksas (IKP %), attīstības bankas, filantropija, uzņēmumu līdzfinansējums.

Izlietojums: drošības pētniecība, izglītība, atvērtas platformas, uzraudzība.

KPI:

  • Gada budžets; % izlietots drošībai/izglītībai.

12. Publiskā–privātā partnerība (PPP)

  • Kopprojekti XAI, drošībai, sabiedriskajam MI.

KPI: # PPP projektu; piesaistītais privātais finansējums.

 

13. Stimuli un sankcijas

  • Nodokļu atvieglojumi sertificētām drošām sistēmām.
  • Sodi par neatbilstību.

KPI: # sertificētu sistēmu; # sankciju.


 

Ⅵ. UZRAUDZĪBAS UN ATBILDĪBAS MODELIS

 

14. Institucionālā arhitektūra

  • Nacionālās MI uzraudzības iestādes (NMIU).
  • Reģionālās koordinācijas struktūras.
  • IMDSP globālai uzraudzībai.

15. Uzraudzības cikls

1.    Reģistrācija un riska klasifikācija.

2.    Sertifikācija/audits.

3.    Nepārtraukta monitorēšana (incidenti, veiktspēja, aizspriedumi).

4.    Pārskatīšana un korekcijas.

16. Sabiedriskā pārredzamība

  • Publiski reģistri par augsta riska sistēmām.
  • Tiesības uz skaidrojumu un pārsūdzību.

KPI:

·         publisku auditu daudzums; vidējais reakcijas laiks uz sūdzībām.


Ⅶ. IEVIEŠANAS GRAFIKS

 

17. Īstermiņā (1–2 gadi)

  • Nacionālie regulējumi; uzraudzības iestādes.
  • Marķēšana MI saturam.
  • GMIDEF izveide.

18. Vidējā termiņā (3–5 gadi)

  • IMDSP darbības uzsākšana.
  • Sertifikācijas standarti.
  • Globālas izglītības iniciatīvas.

19. Ilgtermiņā (5–10 gadi)

  • Pastāvīga globāla pārvaldība.
  • Krīžu reaģēšanas mehānismi.
  • MI kā ilgtspējīgas attīstības infrastruktūra.

Ⅶ. RISKI UN TO MAZINĀŠANA

 

  • Tehnoloģiskā sacensība: kopīgi standarti, atklāta drošības pētniecība.
  • Regulu neievērošana vai adaptīvs regulējums, “smilškastes”
  • Digitālā plaisa: mērķēts finansējums attīstības valstīm.

Ⅷ. NOSLĒGUMA NOSTĀDNE

 

MI nav cilvēces aizstājējs, bet tās instruments. Šī stratēģija aicina veidot nākotni, kurā MI ir drošs palīgs, uzticams asistents un cilvēka vērtībās balstīta tehnoloģija, ar skaidriem saprotamiem rādītājiem, ilgtspējīgu finansējumu un neatkarīgu uzraudzību.

 

 

DEKLARĀCIJAS PROJEKTS

PAR MĀKSLĪGĀ INTELEKTA DROŠU, ĒTISKU UN CILVĒKCENTRĒTU ATTĪSTĪBU

                    (ANO / G20 / OECD FORMĀTAM)

 

PREAMBULA

Mēs, valstu un valdību vadītāji, starptautisko organizāciju pārstāvji un sociālie partneri, atzīstot Mākslīgā intelekta (MI) straujo ietekmi uz cilvēka dzīvi, ekonomiku, drošību un demokrātiju, apstiprinot Apvienoto Nāciju Organizācijas Statūtu, Vispārējās cilvēktiesību deklarācijas, Ilgtspējīgas attīstības mērķu un OECD vērtību nozīmi, kā arī apņemoties veidot nākotni, kurā tehnoloģijas kalpo cilvēcei, nevis to apdraud,

pieņemam šo Deklarāciju kā kopīgu politisko apņemšanos nodrošināt MI drošu, ētisku un cilvēkcentrētu attīstību.


I.                 PAMATPRINCIPI

 

1.    Cilvēka prioritāte. MI nekad nedrīkst aizstāt cilvēka morālo atbildību, brīvo gribu un pamattiesības. Galīgie lēmumi par dzīvību, veselību, brīvību un tiesībām paliek cilvēka kompetencē.

2.    Caurspīdīgums un atbildība. MI sistēmām jābūt izskaidrojamām, auditējamām un pakļautām skaidri saprotamai juridiskajai atbildībai.

3.    Drošība un nekaitējums. MI izstrāde un izmantošana ir vērsta uz sabiedrības labklājību, riska mazināšanu un ļaunprātīgas izmantošanas novēršanu.

4.    Taisnīgums un iekļaušana. MI nedrīkst veicināt diskrimināciju vai sociālo nevienlīdzību; tam jāsekmē vienlīdzīgas iespējas un ilgtspējīga attīstība.


II. “SARKANĀS LĪNIJAS”

5.    Mēs apņemamies nepieļaut:

a) pilnībā autonomu letālu ieroču izmantošanu;

b) MI izmantošanu masveida uzraudzībai bez tiesiskas kontroles;

 c) MI izmantošanu politiskai manipulācijai, vēlēšanu ietekmēšanai vai sabiedrības dezinformācijai;

 d) MI sistēmas, kas sistemātiski pārkāpj cilvēktiesības.


III. PĀRVALDĪBA UN UZRAUDZĪBA

6.    Mēs vienojamies veidot riska balstītu MI regulējumu nacionālā un starptautiskā līmenī, paredzot obligātus ētikas un ietekmes novērtējumus augsta riska sistēmām.

7.    Mēs atbalstām Starptautiskas MI drošības padomes izveidi ANO vai līdzvērtīgas struktūras ietvaros, lai:

a) uzraudzītu augsta riska MI;

b) koordinētu incidentu ziņošanu;

c) veiktu kopīgus drošības auditus.

8.    Mēs apņemamies nodrošināt lietotāju tiesības:

a) zināt, kad viņi mijiedarbojas ar MI;

b) saņemt skaidrojumu par automatizētiem lēmumiem;

c) apstrīdēt un pārsūdzēt MI lēmumus, kas ietekmē viņu tiesības.


IV. IZGLĪTĪBA, SABIEDRĪBA UN DARBA TIRGUS

9.    Mēs apņemamies integrēt MI pamatus, ētiku un drošību izglītības sistēmās visos līmeņos un veicināt sabiedrības digitālo pratību.

10.                       Mēs atbalstām pārkvalifikācijas programmas un sociālās aizsardzības mehānismus, lai mazinātu automatizācijas ietekmi uz nodarbinātību.


V. INOVĀCIJAS UN SABIEDRISKAIS LABUMS

11.                       Mēs veicinām atbildīgā un saprātīgā MI, drošības un vērtību saskaņošanas (alignment) pētniecību, kā arī atvērtas un auditējamas platformas sabiedrības labumam.

12.                       Mēs atbalstām MI izmantošanu veselības aprūpē, izglītībā, vides aizsardzībā un ilgtspējīgā attīstībā, nodrošinot ētisku un drošu ieviešanu.


VI. FINANSĒŠANA UN STARPTAUTISKĀ SADARBĪBA

13.                       Mēs aicinām izveidot Globālo MI drošības un ētikas fondu, lai finansētu drošības pētniecību, izglītību, atvērtas platformas un uzraudzības kapacitāti, īpaši atbalstot jaunattīstības valstis.

14.                       Mēs veicinām publiskā–privātā sektora partnerības, kas ievēro šīs Deklarācijas principus.


VII. ĪSTENOŠANA UN PĀRSKATĪŠANA

15.                       Mēs aicinām visas valstis un ieinteresētās puses:

a) saskaņot nacionālos regulējumus ar šīs Deklarācijas principiem;

b) regulāri ziņot par progresu;

c) piedalīties kopīgos drošības testos un auditā.

16.                       Mēs vienojamies periodiski pārskatīt šīs Deklarācijas īstenošanu un atjaunināt to, ņemot vērā tehnoloģisko attīstību un jaunos riskus.


 

 

NOSLĒGUMS

Šī Deklarācija apliecina mūsu kopīgo apņemšanos nodrošināt, ka Mākslīgais intelekts kalpo cilvēcei kā drošs palīgs, uzticams asistents un ilgtspējīgas attīstības instruments, vienlaikus saglabājot cilvēka cieņu, brīvību un atbildību kā noteicošās vērtības.

 Tālāk iespējams:

🔹 Precīzi pielāgot šo deklarāciju ANO formātam – ar klasisko rezolūciju struktūru (“Recalling…”, “Affirming…”, “Calls upon…”),
🔹 G20 formātam – īsāku, ekonomikai, inovācijām un riskiem fokusētu līderu paziņojumu,
🔹 OECD formātam – uz politikas vadlīnijām, rādītājiem un labās prakses ieviešanu orientētu tekstu,

Politikas kopsavilkums (policy brief) lēmumu pieņēmējiem

Globālā stratēģija ētiskam, drošam un cilvēkcentrētam mākslīgajam intelektam

 

Koncentrēts un izpildāms, ar skaidru struktūru:

  • “Kāpēc tagad” (problēmas būtība),
  • stratēģiskais mērķis un principi,
  • konkrētas politikas izvēles un lēmumu punkti (regulējums, starptautiskā koordinācija, izglītība, tehnoloģijas),
  • finansēšanas mehānismi,
  • uzraudzības modelis,
  • KPI rādītāji,
  • riski, ja nerīkojamies,
  • tūlītējie nākamie soļi (6–12 mēneši).

 

Mērķauditorija: valstu un valdību vadītāji, ministri, starptautiskās organizācijas, augsta līmeņa regulatori
Mērķis: sniegt īsu, rīcībai gatavu ietvaru, lai MI attīstība stiprinātu cilvēka cieņu, drošību un ilgtspējīgu attīstību.


Kopsavilkums (Executive Summary)

Mākslīgais intelekts strauji pārveido ekonomiku, pārvaldību un ikdienas dzīvi. Bez koordinētiem aizsardzības mehānismiem MI var veicināt masveida manipulāciju, diskrimināciju, nedrošu automatizāciju un uzticēšanās demokrātijai mazināšanos.

          Šis kopsavilkums piedāvā globālu, riska balstītu pārvaldības ietvaru ar skaidrām “sarkanajām līnijām”, izmērāmiem rādītājiem (KPI), ilgtspējīgu finansējumu un neatkarīgu uzraudzību.

Mērķis — padarīt MI par drošu palīgu, uzticamu partneri un cilvēka vērtībās balstītu tehnoloģiju.


Kāpēc tas ir aktuāli tagad

  • Mērogs un temps: MI ieviešana apsteidz regulējuma spējas.
  • Augsta riska pielietojumi: autonomas ieroču sistēmas, masveida biometriska uzraudzība un politiskā manipulācija rada sistēmiskus riskus.
  • Sadrumstaloti noteikumi: atšķirīgas nacionālās pieejas veicina regulatīvo arbitrāžu un drošības nepilnības.
  • Sabiedrības uzticēšanās: bez caurspīdīguma un atbildības sabiedrības atbalsts MI samazināsies.

Stratēģiskais mērķis

Nodrošināt, ka MI:

  • respektē cilvēka cieņu, tiesības un autonomiju;
  • darbojas droši, pārskatāmi un atbildīgi;
  • netiek izmantots vardarbībai, manipulācijai vai masveida kontrolei;
  • veicina globālu labklājību, taisnīgumu un ilgtspējīgu attīstību.

Politikas pamatpīlāri

 

1) Riska balstīta globālā pārvaldība

  • Ieviest četru līmeņu riska modeli (minimāls, ierobežots, augsts, nepieļaujams).
  • Noteikt obligātus ētikas un ietekmes novērtējumus visām augsta riska sistēmām.
  • Nodrošināt skaidri saprotamu juridisko atbildību visā MI vērtību ķēdē (izstrādātājs → ieviesējs → operators).

KPI:

  • % valstu ar riska balstītu MI regulējumu;
  • % augsta riska sistēmu ar publiskiem ietekmes novērtējumiem;
  • Vidējais laiks no incidenta līdz juridiskai izskatīšanai.

2) “Sarkanās līnijas” (nepieļaujamās jomas)

  • Aizliegt pilnībā autonomus letālus ieročus.
  • Aizliegt biometrisku masveida uzraudzību bez tiesiskas kontroles.
  • Aizliegt politisko manipulāciju, mikromērķētu propagandu un iejaukšanos vēlēšanās.
  • Nepieļaut MI, kas sistēmiski pārkāpj cilvēktiesības vai veicina diskrimināciju.

KPI:

  • Pieņemto nacionālo aizliegumu skaits;
  • Dokumentēto pārkāpumu un sankciju skaits.

3) Starptautiskā koordinācija

  • Izveidot Starptautisku MI drošības padomi ANO vai līdzvērtīgas struktūras ietvaros, lai:
    • uzraudzītu augsta riska MI,
    • koordinētu incidentu ziņošanu,
    • veiktu kopīgus drošības auditus.
  • Ieviest kopīgu globālu incidentu ziņošanas platformu.

KPI:

  • Padomes izveides statuss; dalībvalstu skaits;
  • Gadā ziņoto incidentu skaits un to izskatīšanas īpatsvars.

4) Izglītība, prasmes un sabiedrības noturība

  • Integrēt MI pamatus, ētiku un drošību izglītībā visos līmeņos.
  • Finansēt pārkvalifikācijas programmas automatizācijas ietekmētajiem darbiniekiem.
  • Īstenot sabiedrības kampaņas digitālās pratības un kritiskās domāšanas stiprināšanai.

KPI:

  • % skolu ar MI ētikas moduļiem;
  • Sertificētu pedagogu skaits;
  • Sabiedrības uzticēšanās indekss (aptaujas).

5) “Ētika pēc noklusējuma” un uzticama infrastruktūra

  • Noteikt ētikas un risku auditus visiem augsta riska projektiem.
  • Nodrošināt human-in-the-loop kritiskos lēmumos un avārijas apturēšanas mehānismus.
  • Investēt atbildīgā & saprātīgā MI (XAI), vērtību saskaņošanas (alignment) pētniecībā un atvērtās, auditējamās publiskā labuma platformās.

KPI:

  • % auditēto augsta riska projektu;
  • drošības incidenti uz 1 000 sistēmām;
  • % publisko modeļu ar XAI funkcijām.

Finansēšana un stimuli

  • Izveidot Globālo MI drošības un ētikas fondu (valstu iemaksas, attīstības bankas, filantropija, uzņēmumu līdzfinansējums).
  • Veicināt publiskā–privātā sektora partnerības drošībai, XAI un sabiedriskajam MI.
  • Ieviest nodokļu stimulus sertificētām drošām sistēmām un sankcijas par neatbilstību.

KPI:

  • Fonda gada apjoms; drošībai/izglītībai novirzītā daļa;
  • PPP projektu skaits; piesaistītais privātais kapitāls.

Uzraudzība un atbildība

  • Nacionālās MI uzraudzības iestādes ar reģionālu un globālu koordināciju caur Starptautisko MI drošības padomi.
  • Dzīves cikla uzraudzība: reģistrācija → sertifikācija/audits → nepārtraukta monitorēšana → pārskatīšana un korekcijas.
  • Sabiedriskā pārredzamība: augsta riska sistēmu reģistri; tiesības uz skaidrojumu un pārsūdzību.

KPI:

  • Publisko auditu skaits; vidējais reakcijas laiks uz sūdzībām.

Ieviešanas grafiks

  • 1–2 gadi: nacionālo tiesību saskaņošana; uzraudzības iestādes; MI satura marķēšana; globālā fonda izveide.
  • 3–5 gadi: Starptautiskās MI drošības padomes darbība; sertifikācijas standarti; globālās izglītības iniciatīvas.
  • 5–10 gadi: pastāvīga globālā pārvaldība; krīžu reaģēšanas mehānismi; MI kā ilgtspējīgas attīstības balsts.

Galvenie riski un mazināšana

  • Tehnoloģiju sacensība: kopīgi standarti, atklāta drošības pētniecība.
  • Regulu neievērošana: adaptīvs regulējums, “smilškastes”.
  • Digitālā plaisa: mērķēts finansējums un kapacitātes stiprināšana jaunattīstības valstīm.

Aicinājums rīkoties

Līderi tiek aicināti:

1.    apstiprināt riska balstīto ietvaru un “sarkanās līnijas”;

2.    noteikt ētiku pēc noklusējuma visiem augsta riska MI;

3.    izveidot Starptautisko MI drošības padomi un Globālo MI drošības un ētikas fondu;

4.    investēt izglītībā, pārredzamībā un sabiedriskā labuma MI.

 

Secinājums: MI nedrīkst aizstāt cilvēka atbildību. Tā patiesā vērtība ir spējā stiprināt cilvēka cieņu, brīvību un atbildību. Šī stratēģija piedāvā praktisku, izmērāmu ceļu, lai MI kļūtu par drošu palīgu, uzticamu partneri un cilvēka vērtībās balstītu tehnoloģiju.

 

Nav komentāru:

Ierakstīt komentāru