Agenzia Internazionale per il principio di precauzione
Il “Rischio Esistenziale” evidenziato oramai da diversi autori (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg), ed organizzazioni (Club di Roma, Greenpeace, Vaticano…) si articola in diversi aspetti:
(i) superamento delle capacità delle macchine rispetto a quelle umane;
(ii) guerra totale;
(iii) degrado ambientale.
Per ciascuno di questi elementi di rischio proponiamo una diversa “idea” di soluzione, sempre basata sull’ idea della Prevenzione del Rischio (Principio di Precauzione) come nella recentissima proposta di regolamento europeo sull’ intelligenza artificiale..Tuttavia, occorre innanzitutto costruire un quadro internazionale organico dell’approccio a tale rischio , mediante la negoziazione di un un "Trattato Quadro" , con la creazione di un apposito Ente internazionale sotto il controllo delle Nazioni Unite (cosa di cui si incomincia a parlare in alcuni documenti cinesi e americani).
Questo Ente europeo sarebbe preposto alla negoziazione dei trattati, allo studio delle nuove tecnologie, alle notifiche di tecnologie a rischio, alle indagini sulle nuove tecnologie, alle autorizzazioni, alla formazione.

Want to find out more?
Fingerprint
The piece of text below is a shortened, hashed representation of this content. It's useful to ensure the content hasn't been tampered with, as a single modification would result in a totally different value.
Value:
f13ba8211e00d3f5684cbc068a5ffacf27aca8d9c6d1646ea77ce9d156997fd6
Source:
{"body":{"it":"Il “Rischio Esistenziale” evidenziato oramai da diversi autori (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg), ed organizzazioni (Club di Roma, Greenpeace, Vaticano…) si articola in diversi aspetti: \n(i) superamento delle capacità delle macchine rispetto a quelle umane; \n(ii) guerra totale; \n(iii) degrado ambientale.\nPer ciascuno di questi elementi di rischio proponiamo una diversa “idea” di soluzione, sempre basata sull’ idea della Prevenzione del Rischio (Principio di Precauzione) come nella recentissima proposta di regolamento europeo sull’ intelligenza artificiale..Tuttavia, occorre innanzitutto costruire un quadro internazionale organico dell’approccio a tale rischio , mediante la negoziazione di un un \"Trattato Quadro\" , con la creazione di un apposito Ente internazionale sotto il controllo delle Nazioni Unite (cosa di cui si incomincia a parlare in alcuni documenti cinesi e americani).\nQuesto Ente europeo sarebbe preposto alla negoziazione dei trattati, allo studio delle nuove tecnologie, alle notifiche di tecnologie a rischio, alle indagini sulle nuove tecnologie, alle autorizzazioni, alla formazione.","machine_translations":{"bg":"„Екзистенциалният риск“, изтъкнат от няколко автора (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) и организации (Рок Рим, Грийнпийс, Ватикана и др.) е разделен на няколко аспекта: I) надвишаване на капацитета на машините по отношение на човешкия капацитет; II) цялата война; III) влошаване на състоянието на околната среда. За всеки от тези рискови фактори предлагаме различна „идея„за решение, което винаги се основава на идеята за предотвратяване на риска (принцип Precauzione), както в съвсем неотдавнашното предложение за европейски регламент относно изкуствения интелект. На първо място обаче е необходимо да се изгради всеобхватна международна рамка за подхода към този риск чрез договарянето на „Рамков договор“ със създаването на специален международен орган под контрола на Организацията на обединените нации (нещо, което ще говорим в някои китайски и американски документи). Този европейски орган ще отговаря за договарянето на договори, изучаването на нови технологии, уведомленията за рискови технологии, проучванията на нови технологии, разрешенията и обучението.","cs":"„Existenční riziko“, na něž upozornilo několik autorů (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) a organizace (Římský klub, Greenpeace, Vatikán atd.), je rozděleno do několika aspektů: I) překročení kapacity strojů ve vztahu k lidské kapacitě; Celková válka; Zhoršení životního prostředí. Pro každý z těchto rizikových prvků navrhujeme jiné „idea“ řešení, které bude vždy založeno na myšlence prevence rizik (zásada Precauzione), jako tomu bylo ve velmi nedávném návrhu evropského nařízení o umělé inteligenci. Především je však třeba vytvořit komplexní mezinárodní rámec přístupu k tomuto riziku prostřednictvím jednání o „rámcové smlouvě“ s vytvořením specializovaného mezinárodního orgánu pod kontrolou Organizace spojených národů (některé americké dokumenty chystámme hovořit). Tento evropský orgán by byl odpovědný za vyjednávání smluv, studium nových technologií, oznamování rizikových technologií, vyšetřování nových technologií, schvalování a odbornou přípravu.","da":"Den \"eksistentielle risiko\", som fremhæves af flere forfattere (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) og organisationer (Romklubben, Greenpeace, Vatican osv.) er inddelt i flere aspekter: I) overskridelse af maskinernes kapacitet i forhold til den menneskelige kapacitet Total krig Miljøforringelse. For hvert af disse risikoelementer foreslår vi en anden \"idé\" om en løsning, der altid er baseret på tanken om risikoforebyggelse (Precauzione Principle) som i det meget nylige forslag til en europæisk forordning om kunstig intelligens. For det første skal der dog opbygges en omfattende international ramme for tilgangen til denne risiko gennem forhandling af en \"rammetraktat\" med oprettelse af et særligt internationalt organ under De Forenede Nationers kontrol (noget, vi taler om i nogle kinesiske og kinesiske). Dette europæiske organ vil få til opgave at forhandle traktater, studere nye teknologier, anmeldelser af risikable teknologier, undersøgelser af nye teknologier, tilladelser og uddannelse.","de":"Das von mehreren Autoren (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) und Organisationen (Club of Rome, Greenpeace, Vatikan usw.) hervorgehobene existenzielle Risiko ist in mehrere Aspekte unterteilt: I) die Kapazität der Maschinen in Bezug auf die menschliche Kapazität übersteigt; II) Gesamtkrieg; Schädigung der Umwelt. Für jeden dieser Risikoelemente schlagen wir eine andere „Idee“ einer Lösung vor, die stets auf dem Gedanken der Risikoprävention (Vorsorgeprinzip) beruht, wie im jüngsten Vorschlag für eine europäische Verordnung über künstliche Intelligenz. Erstens muss jedoch ein umfassender internationaler Rahmen für den Umgang mit diesem Risiko durch die Aushandlung eines Rahmenvertrages mit der Schaffung eines speziellen internationalen Gremiums unter der Kontrolle der Vereinten Nationen geschaffen werden. Dieses europäische Gremium wäre für die Aushandlung von Verträgen, die Untersuchung neuer Technologien, die Meldung riskanter Technologien, die Untersuchung neuer Technologien, Genehmigungen und Schulungen zuständig.","el":"Ο «υπαρξιακός κίνδυνος» που επισημαίνεται από διάφορους συγγραφείς (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) και οργανώσεις (Λέσχη Ρώμης, Greenpeace, Βατικανό κ.λπ.) χωρίζεται σε διάφορες πτυχές: I) υπέρβαση της ικανότητας των μηχανών σε σχέση με το ανθρώπινο δυναμικό· II) ολοκληρωμένος πόλεμος· III) υποβάθμιση του περιβάλλοντος. Για καθένα από αυτά τα στοιχεία κινδύνου, προτείνουμε μια διαφορετική «ιδέα» μιας λύσης, η οποία θα βασίζεται πάντα στην ιδέα της πρόληψης του κινδύνου (αρχή Precauzione), όπως στην πολύ πρόσφατη πρόταση κανονισμού για την τεχνητή νοημοσύνη. Ωστόσο, πρώτα απ’ όλα, πρέπει να οικοδομηθεί ένα ολοκληρωμένο διεθνές πλαίσιο για την προσέγγιση του κινδύνου αυτού, μέσω της διαπραγμάτευσης μιας «συνθήκης πλαισίου», με τη δημιουργία ενός ειδικού διεθνούς φορέα υπό τον έλεγχο των Ηνωμένων Εθνών (κάτι που θα μιλήσουμε σε ορισμένα κινεζικά έγγραφα). Το εν λόγω ευρωπαϊκό όργανο θα είναι αρμόδιο για τη διαπραγμάτευση συνθηκών, τη μελέτη νέων τεχνολογιών, την κοινοποίηση επικίνδυνων τεχνολογιών, τη διερεύνηση νέων τεχνολογιών, τη χορήγηση αδειών και την κατάρτιση.","en":"The “existential risk” highlighted by several authors (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) and organisations (Club of Rome, Greenpeace, Vatican, etc.) is divided into several aspects: (I) exceeding the capacity of the machines in relation to human capacity; (II) total war; (III) environmental degradation. For each of these elements of risk, we propose a different “idea” of a solution, always based on the idea of prevention of risk (Precauzione Principle) as in the very recent proposal for a European Regulation on Artificial Intelligence. however, first of all, a comprehensive international framework of the approach to this risk needs to be built, through the negotiation of a “Framework Treaty”, with the creation of a dedicated international body under the control of the United Nations (something we are going to talk in some Chinese and American documents). This European body would be responsible for negotiating treaties, studying new technologies, notifications of risky technologies, investigations of new technologies, authorisations and training.","es":"El «riesgo existencial» destacado por varios autores (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) y organizaciones (Club de Roma, Greenpeace, Vaticano, etc.) se divide en varios aspectos: La superación de la capacidad de las máquinas en relación con la capacidad humana; II) guerra total; III) degradación del medio ambiente. Para cada uno de estos elementos de riesgo proponemos una «idea» diferente de una solución, siempre basada en la idea de prevención de riesgos (principio de Precauzione), como en la reciente propuesta de Reglamento Europeo sobre Inteligencia Artificial. No obstante, en primer lugar, es necesario construir un marco internacional global del enfoque de este riesgo, a través de la negociación de un «Tratado Marco», con la creación de un organismo internacional específico bajo el control de las Naciones Unidas (algo que vamos a hablar). Este órgano europeo sería responsable de la negociación de tratados, el estudio de nuevas tecnologías, las notificaciones de tecnologías de riesgo, las investigaciones de nuevas tecnologías, las autorizaciones y la formación.","et":"„Olemasolev oht“, millele on tähelepanu juhtinud mitmed autorid (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) ja organisatsioonid (Rooma, Greenpeace, Vatikani kool jne), jagunevad mitmeks aspektiks: I) masinate töömahu ületamine vastavalt nende inimtöömahule; Kogu sõda; III) keskkonnaseisundi halvenemine. Iga nimetatud riskielemendi puhul pakume välja teistsuguse lahenduse, mis põhineb alati riskiennetuse ideel (precauzione põhimõte), nagu ka hiljutises tehisintellekti käsitleva Euroopa määruse ettepanekus. Esiteks tuleb aga luua selle riski suhtes võetava lähenemisviisi terviklik rahvusvaheline raamistik, pidades läbirääkimisi raamlepingu üle, luues selleks sihtotstarbelise rahvusvahelise organi, mis on ÜRO kontrolli all (mõned dokumendid, mida me räägime Hiinas). See Euroopa organ vastutaks lepingute üle peetavate läbirääkimiste, uute tehnoloogiate uurimise, riskantsetest tehnoloogiatest teavitamise, uute tehnoloogiate uurimise, lubade andmise ja koolituse eest.","fi":"Useiden kirjoittajien (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) ja järjestöjen (Rooman klubi, Greenpeace, Vatikaan jne.) esiin tuoma ”olemassa oleva riski” on jaettu useisiin osiin: Konetehon ylittyminen suhteessa ruumiilliseen kapasiteettiin; Sota kokonaisuudessaan; Ympäristön pilaantuminen. Ehdotamme kunkin riskitekijän osalta erilaisen ratkaisun ideaa, joka perustuu aina riskien ennaltaehkäisyä koskevaan ajatukseen (Precauzionen periaate), kuten äskettäin annetussa ehdotuksessa tekoälyä koskevaksi eurooppalaiseksi asetukseksi. Ensinnäkin on kuitenkin luotava kattava kansainvälinen kehys tähän riskiin sovellettavalle lähestymistavalle neuvottelemalla ”puitesopimus”, jossa perustetaan erityinen kansainvälinen elin, joka on Yhdistyneiden kansakuntien valvonnassa (jotkut ovat amerikkalaisissa asiakirjoissa). Tämä eurooppalainen elin vastaisi sopimusten neuvottelemisesta, uusien teknologioiden tutkimisesta, riskialttiita teknologioita koskevista ilmoituksista, uusien teknologioiden tutkinnasta, luvista ja koulutuksesta.","fr":"Le «risque existentiel» mis en évidence par plusieurs auteurs (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) et des organisations (Club de Rome, Greenpeace, Vatican, etc.) est divisé en plusieurs aspects: I) dépasser la capacité des machines par rapport à la capacité humaine; II) la guerre totale; III) dégradation de l’environnement. Pour chacun de ces éléments de risque, nous proposons une autre «idée» d’une solution, toujours fondée sur l’idée de prévention du risque (principe Precauzione), comme dans la toute récente proposition de règlement européen sur l’intelligence artificielle. Toutefois, tout d’abord, un cadre international complet de l’approche de ce risque doit être construit, par la négociation d’un «traité cadre», avec la création d’un organe international spécifique sous le contrôle des Nations unies (quelque chose que nous allons parler de la Chine). Cet organe européen serait chargé de négocier les traités, d’étudier les nouvelles technologies, de notifier les technologies à risque, d’enquêter sur les nouvelles technologies, d’autoriser et de former.","ga":"Tá an “riosca atá ann cheana” léirithe ag roinnt údar (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) agus eagraíochtaí (Club na Róimhe, Greenpeace, Vatacáin, etc.) roinnte i roinnt gnéithe: (I) is mó ná toilleadh na meaisíní i ndáil le cumas an duine; (II) cogadh iomlán; (III) díghrádú comhshaoil. I gcás gach ceann de na gnéithe riosca sin, molaimid “foinse” dhifriúil de réiteach, atá bunaithe i gcónaí ar an smaoineamh riosca a chosc (prionsabal precauzione) mar a rinneadh sa togra le déanaí le haghaidh Rialacháin Eorpaigh maidir leis an Intleacht Shaorga. Ar an gcéad dul síos, ní mór creat idirnáisiúnta cuimsitheach den chur chuige i leith an riosca seo a thógáil, trí chaibidlíocht a dhéanamh ar “Conradh Framework Treaty”, le cruthú comhlachta idirnáisiúnta thiomnaithe faoi rialú na Náisiún Aontaithe (tá cuid de ag caint i ndoiciméid Mheiriceánaigh). Bheadh an comhlacht Eorpach seo freagrach as conarthaí a chaibidliú, as staidéar a dhéanamh ar theicneolaíochtaí nua, as teicneolaíochtaí rioscúla a fhógairt, as imscrúduithe ar theicneolaíochtaí nua, as údaruithe agus as oiliúint.","hr":"„Postojeći rizik” koji je istaknulo nekoliko autora (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) i organizacije (Rimski okrug, Greenpeace, Vatikan itd.) podijeljen je na nekoliko aspekata: I. prekoračenje kapaciteta strojeva u odnosu na ljudske kapacitete; Ii. totalni rat; Iii. uništavanje okoliša. Za svaki od tih elemenata rizika predlažemo drugačiju „ideju” rješenja koje se uvijek temelji na ideji sprečavanja rizika (načelo Precauzione) kao i u nedavnom prijedlogu europske uredbe o umjetnoj inteligenciji. Međutim, najprije je potrebno uspostaviti sveobuhvatan međunarodni okvir pristupa tom riziku putem pregovora o „Okvirnom ugovoru”, uz uspostavu posebnog međunarodnog tijela pod kontrolom Ujedinjenih naroda (što znači da ćemo govoriti u nekim kineskim i američkim dokumentima). To europsko tijelo bilo bi odgovorno za pregovaranje o ugovorima, proučavanje novih tehnologija, obavijesti o rizičnim tehnologijama, istrage novih tehnologija, odobrenja i osposobljavanje.","hu":"A több szerző (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) és szervezetek (Róma klubja, Greenpeace, Vatikán stb.) által kiemelt „létező kockázat” több szempontra oszlik: A gép emberi kapacitáshoz viszonyított kapacitásának túllépése; Teljes háború; Környezetkárosodás. E kockázati elemek mindegyikére vonatkozóan más „ötletet” javasolunk egy olyan megoldásra vonatkozóan, amely mindig a kockázatmegelőzés gondolatán alapul (Precauzione-elv), mint a mesterséges intelligenciáról szóló európai rendeletre irányuló közelmúltbeli javaslatban. Először is ki kell alakítani az e kockázatra vonatkozó megközelítés átfogó nemzetközi keretét egy „keretszerződés” tárgyalása révén, az Egyesült Nemzetek Szervezete ellenőrzése alatt álló külön nemzetközi testület létrehozásával (néhány kínai dokumentumról tárgyalunk). Ez az európai testület felelne a szerződések megtárgyalásáért, az új technológiák tanulmányozásáért, a kockázatos technológiák bejelentéséért, az új technológiák vizsgálatáért, az engedélyezésért és a képzésért.","lt":"„Egzistuojanti rizika“, kurią pabrėžė keli autoriai (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) ir organizacijos (Romos klubas, „Greenpeace“, „Vatikanas“ ir t. t.), skirstoma į keletą aspektų: I) mašinų pajėgumo viršijimą, palyginti su žmogiškaisiais pajėgumais; II) visiškas karas; Aplinkos būklės blogėjimas. Dėl kiekvieno iš šių rizikos veiksnių siūlome kitokį „idea“ sprendimą, kuris visada būtų grindžiamas rizikos prevencijos idėja (Precauzione principas), kaip neseniai pateiktame pasiūlyme dėl Europos reglamento dėl dirbtinio intelekto, tačiau visų pirma reikia sukurti išsamią tarptautinę šios rizikos problemos sprendimo sistemą, vedant derybas dėl pagrindų sutarties ir įsteigiant specialų tarptautinį organą, kurį kontroliuotų Jungtinės Tautos (kai kuriais atvejais kalbėsime kai kuriuose JAV dokumentuose). Šis Europos organas būtų atsakingas už derybas dėl sutarčių, naujų technologijų tyrimą, pranešimus apie rizikingas technologijas, naujų technologijų tyrimus, leidimų išdavimą ir mokymą.","lv":"“Pastāvošais risks”, ko uzsvēruši vairāki autori (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) un organizācijas (Romas klubs, Greenpeace, Vatikāns u. c.), ir sadalīts vairākos aspektos: Mašīnu jaudas pārsniegums attiecībā pret cilvēku jaudu; Kopējais karš; III) vides degradācija. Attiecībā uz katru no šiem riska elementiem mēs ierosinām atšķirīgu risinājumu “ideju”, kura pamatā vienmēr ir ideja par riska novēršanu (Precauzione princips), kā tas ir nesenajā priekšlikumā Eiropas regulai par mākslīgo intelektu. Tomēr, pirmkārt, sarunu ceļā par “pamatlīgumu” ir jāizveido visaptverošs starptautisks satvars attiecībā uz pieeju šim riskam, izveidojot īpašu starptautisku struktūru Apvienoto Nāciju Organizācijas kontrolē (tādējādi, ka ķīniešu valodā mēs runājam par dažiem dokumentiem). Šī Eiropas struktūra būtu atbildīga par sarunām par līgumiem, jaunu tehnoloģiju izpēti, riskantu tehnoloģiju paziņošanu, jaunu tehnoloģiju izpēti, atļaujām un apmācību.","mt":"Ir- “riskju eżistenzjali” enfasizzat minn diversi awturi (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) u organizzazzjonijiet (Klabb ta’ Ruma, Greenpeace, Vatikan, eċċ.) huwa maqsum f’diversi aspetti: (I) il-qbiż tal-kapaċità tal-magni fir-rigward tal-kapaċità umana; (II) gwerra totali; (III) degradazzjoni ambjentali. Għal kull wieħed minn dawn l-elementi ta’ riskju, aħna nipproponu “idea” differenti ta’ soluzzjoni, dejjem ibbażata fuq l-idea tal-prevenzjoni tar-riskju (il-Prinċipju ta’ Precauzione) bħal fil-proposta reċenti ħafna għal Regolament Ewropew dwar l-Intelliġenza Artifiċjali. Madankollu, l-ewwel nett, jeħtieġ li jinbena qafas internazzjonali komprensiv tal-approċċ għal dan ir-riskju, permezz tan-negozjar ta’ “Trattat Qafas”, bil-ħolqien ta’ korp internazzjonali ddedikat taħt il-kontroll tan-Nazzjonijiet Uniti (xi ħaġa li ser nitkellmu f’xi dokumenti Amerikani). Dan il-korp Ewropew ikun responsabbli għan-negozjar ta’ trattati, l-istudju ta’ teknoloġiji ġodda, in-notifiki ta’ teknoloġiji riskjużi, l-investigazzjonijiet ta’ teknoloġiji ġodda, l-awtorizzazzjonijiet u t-taħriġ.","nl":"Het „existentiële risico” waarop verschillende auteurs (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) en organisaties (Club van Rome, Greenpeace, Vaticaanstad enz.) wijzen, bestaat uit verschillende aspecten: I) overschrijding van de capaciteit van de machines ten opzichte van de menselijke capaciteit; De totale oorlog; Aantasting van het milieu. Voor elk van deze risicofactoren stellen wij een ander „idee” van een oplossing voor, die altijd gebaseerd is op het idee van risicopreventie (Precauzione Principle), zoals in het zeer recente voorstel voor een Europese verordening inzake kunstmatige intelligentie. In de eerste plaats moet er echter een alomvattend internationaal kader voor de aanpak van dit risico worden opgebouwd door middel van onderhandelingen over een „kaderverdrag”, met de oprichting van een specifiek internationaal orgaan onder toezicht van de Verenigde Naties (iets waarover we in Amerika en in enkele Chinese documenten gaan praten). Deze Europese instantie zou verantwoordelijk zijn voor de onderhandelingen over verdragen, de bestudering van nieuwe technologieën, kennisgevingen van risicovolle technologieën, onderzoek naar nieuwe technologieën, vergunningen en opleiding.","pl":"„Istniejące ryzyko” podkreślone przez kilku autorów (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) i organizacje (Klub Rzymski, Greenpeace, Watykan itp.) dzieli się na kilka aspektów: Przekroczenie pojemności maszyn w stosunku do potencjału ludzkiego; Wojna globalna; Degradacja środowiska. W odniesieniu do każdego z tych elementów ryzyka proponujemy inne „idea” rozwiązania, zawsze oparte na koncepcji zapobiegania ryzyku (zasada precauzione), tak jak w niedawnym wniosku dotyczącym rozporządzenia europejskiego w sprawie sztucznej inteligencji. Jednakże najpierw należy stworzyć kompleksowe międzynarodowe ramy podejścia do tego ryzyka poprzez wynegocjowanie „traktatu ramowego” wraz z utworzeniem specjalnego organu międzynarodowego pod kontrolą Organizacji Narodów Zjednoczonych (niektóre z Chin będziemy rozmawiać w niektórych dokumentach). Ten europejski organ byłby odpowiedzialny za negocjowanie traktatów, badanie nowych technologii, powiadamianie o technologiach obarczonych ryzykiem, badania nowych technologii, zezwolenia i szkolenia.","pt":"O «risco existencial» salientado por vários autores (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) e organizações (Clube de Roma, Greenpeace, Vaticano, etc.) está dividido em vários aspetos: I) a ultrapassagem da capacidade das máquinas em relação à capacidade humana; II) guerra total; Degradação ambiental. Para cada um destes elementos de risco, propomos uma «ideia» diferente de uma solução, sempre baseada na ideia de prevenção do risco (princípio de Precauzione), tal como na recente proposta de regulamento europeu sobre a inteligência artificial. No entanto, em primeiro lugar, é necessário construir um quadro internacional abrangente para a abordagem a este risco, através da negociação de um «acordo-quadro», com a criação de um organismo internacional específico sob o controlo das Nações Unidas (algo que vamos falar em alguns documentos chineses). Este órgão europeu seria responsável pela negociação de tratados, estudo de novas tecnologias, notificações de tecnologias de risco, investigação de novas tecnologias, autorizações e formação.","ro":"„Riscul existențial” evidențiat de mai mulți autori (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) și de organizații (Clubul de la Roma, Greenpeace, Vatican etc.) este împărțit în mai multe aspecte: (I) depășirea capacității mașinilor în raport cu capacitatea umană; (II) război total; (III) degradarea mediului. Pentru fiecare dintre aceste elemente de risc, propunem o „idee” diferită a unei soluții, bazată întotdeauna pe ideea de prevenire a riscurilor (principiul Precauzione), la fel ca în recenta propunere de regulament european privind inteligența artificială. Totuși, în primul rând, trebuie construit un cadru internațional cuprinzător pentru abordarea acestui risc, prin negocierea unui „acord-cadru”, cu crearea unui organism internațional specializat sub controlul Organizației Națiunilor Unite (vom vorbi despre ceva în unele documente americane). Acest organism european ar fi responsabil de negocierea tratatelor, studierea noilor tehnologii, notificarea tehnologiilor riscante, investigarea noilor tehnologii, autorizarea și formarea.","sk":"„Existenčné riziko“, na ktoré poukázali viacerí autori (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) a organizácie (Rímsky, Greenpeace, Vatikán atď.), je rozdelené na niekoľko aspektov: I) prekročenie kapacity strojov vo vzťahu k ľudskej kapacite; II) celková vojna; III) zhoršovanie životného prostredia. Pre každý z týchto rizikových prvkov navrhujeme inú „ideu“ riešenia, vždy založenú na myšlienke prevencie rizika (zásada Precauzione), ako aj v nedávnom návrhu európskeho nariadenia o umelej inteligencii. V prvom rade je však potrebné vytvoriť komplexný medzinárodný rámec prístupu k tomuto riziku, a to prostredníctvom rokovaní o „rámcovej zmluve“, pričom sa vytvorí osobitný medzinárodný orgán pod kontrolou Organizácie Spojených národov (niektorých čínskych dokumentov budeme rokovať o nich). Tento európsky orgán by bol zodpovedný za rokovania o zmluvách, skúmanie nových technológií, oznamovanie rizikových technológií, skúmanie nových technológií, udeľovanie povolení a odbornú prípravu.","sl":"„Obstoječe tveganje“, ki ga je izpostavilo več avtorjev (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) in organizacij (Rimski klub, Greenpeace, Vatikan itd.), je razdeljeno na več vidikov: (I) presega zmogljivost strojev glede na človeško zmogljivost; (II) celotna vojna; (III) degradacija okolja. Za vsakega od teh elementov tveganja predlagamo drugačno „idejo“ rešitve, ki vedno temelji na zamisli o preprečevanju tveganja (načelo Precauzione) kot v nedavnem predlogu za evropsko uredbo o umetni inteligenci. Vendar je treba najprej oblikovati celovit mednarodni okvir pristopa k temu tveganju s pogajanji o „okvirni pogodbi“ z ustanovitvijo posebnega mednarodnega organa pod nadzorom Združenih narodov (nekateri ameriški dokumenti in nekateri kitajski dokumenti). Ta evropski organ bi bil odgovoren za pogajanja o pogodbah, preučevanje novih tehnologij, obveščanje o tveganih tehnologijah, raziskave novih tehnologij, odobritve in usposabljanje.","sv":"Den ”existentiella risk” som framhållits av flera författare (Jaspers, Joy, Fukuyama, Hawking, Rees, Thunberg) och organisationer (Romklubben, Greenpeace, Vatican osv.) är uppdelad i flera aspekter: I) överskridande av maskinernas kapacitet i förhållande till mänsklig kapacitet, II) krig totalt. III) miljöförstöring. För var och en av dessa riskfaktorer föreslår vi en annan ”idé” om en lösning, som alltid bygger på idén om förebyggande av risker (Precauzione Principle) som i det mycket färska förslaget till en europeisk förordning om artificiell intelligens. För det första måste dock en övergripande internationell ram för att hantera denna risk byggas upp genom förhandlingar om ett ”ramavtal”, med inrättandet av ett särskilt internationellt organ under Förenta nationernas kontroll (något vi kommer att tala om i kinesiska dokument). Detta EU-organ skulle ansvara för förhandlingar om fördrag, studier av ny teknik, anmälningar av riskfylld teknik, utredningar av ny teknik, tillstånd och utbildning."}},"title":{"it":"Agenzia Internazionale per il principio di precauzione ","machine_translations":{"bg":"Международна агенция за предохранителния принцип","cs":"Mezinárodní agentura pro zásadu předběžné opatrnosti","da":"Det Internationale Forsikringsagentur","de":"Internationale Agentur für das Vorsorgeprinzip","el":"Διεθνής Οργανισμός για την Αρχή της προφύλαξης","en":"International Agency for the Precautionary Principle","es":"Agencia Internacional para el Principio de precaución","et":"Ettevaatusprintsiibi rahvusvaheline agentuur","fi":"Kansainvälinen suojelujärjestö (International Agency for the Preutionary principle)","fr":"Agence internationale pour le principe de précaution","ga":"An Ghníomhaireacht Idirnáisiúnta um Prionsabal Réamhchúraim","hr":"Međunarodna agencija za načelo predostrožnosti","hu":"Az elővigyázatosság elvével foglalkozó nemzetközi ügynökség","lt":"Tarptautinė atsargumo principo agentūra","lv":"Starptautiskā Piesardzības principa aģentūra","mt":"Aġenzija Internazzjonali għall-Prinċipju ta’ Prekawzjoni","nl":"Internationaal Agentschap voor het voorzorgsbeginsel","pl":"Międzynarodowa Agencja ds. Zasady ostrożności","pt":"Agência Internacional para o princípio da precaução","ro":"Agenția Internațională pentru Principiul precauției","sk":"Medzinárodná agentúra pre zásadu predbežnej opatrnosti","sl":"Mednarodna agencija za previdnostno načelo","sv":"Internationella skyddsorganet"}}}
This fingerprint is calculated using a SHA256 hashing algorithm. In order to replicate it yourself, you can use an MD5 calculator online and copy-paste the source data.
Share:
Share link:
Please paste this code in your page:
<script src="https://futureu.europa.eu/processes/OtherIdeas/f/8/proposals/1458/embed.js"></script>
<noscript><iframe src="https://futureu.europa.eu/processes/OtherIdeas/f/8/proposals/1458/embed.html" frameborder="0" scrolling="vertical"></iframe></noscript>
Report inappropriate content
Is this content inappropriate?
- Call us 00 800 6 7 8 9 10 11
- Use other telephone options
- Write to us via our contact form
- Meet us at a local EU office
- European Parliament
- European Council
- Council of the European Union
- European Commission
- Court of Justice of the European Union (CJEU)
- European Central Bank (ECB)
- European Court of Auditors (ECA)
- European External Action Service (EEAS)
- European Economic and Social Committee (EESC)
- European Committee of the Regions (CoR)
- European Investment Bank (EIB)
- European Ombudsman
- European Data Protection Supervisor (EDPS)
- European Data Protection Board
- European Personnel Selection Office
- Publications Office of the European Union
- Agencies
0 comments
Loading comments ...