Una proposta per le nuove leggi della robotica
Due ingegneri propongono di riscrivere in una forma più aggiornata e realistica per i robot del futuro, e con maggiori garanzie di sicurezza, le famose leggi di Asimov
Le ormai famose “Tre leggi della robotica responsabile” elaborate da Isaac Asimov nei suoi racconti di fantascienza hanno cambiato per sempre il modo in cui è stata considerata l’intelligenza artificiale, e ispirato generazioni di ingegneri.
Sull’ultimo numero della rivista IEEE Intelligent Systems, due ingegneri propongono ora di riscriverle in una forma più aggiornata e realistica per i robot del futuro, con maggiori garanzie di sicurezza.
"A ben pensarci, la nostra visione culturale dei robot è stata sempre quella di considerarli esseri anti-umani e pro-robot”, ha commentato David Woods, professore di ingegneria dei sistemi integrati della Ohio State University, autore dello studio insieme con Robin Murphy della Texas A&M University. "Inoltre, si crede comunemente che i robot rappresentino una versione migliorata degli esseri umani, in grado per esempio di commettere molti meno errori di noi. Il nostro vuole essere un contributo a considerare le cose in modo più realistico.”
Ecco come si presentano le tre leggi di Asimov riportate nel suo "Manuale di robotica":
• Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
• Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
• Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e con la Seconda Legge
Le leggi proposte da Woods e Murphy sono invece le seguenti:
• Un essere umano, non può utilizzare un robot senza che il sistema di lavoro uomo-robot raggiunga i più alti livelli legali e professionali di sicurezza ed etica
• Un robot deve rispondere agli esseri umani in modo appropriato al loro ruolo
• Un robot deve essere dotato di autonomia sufficiente per proteggere la propria esistenza a condizione che tale protezione fornisca un graduale trasferimento di controllo che non sia in conflitto con la Prima e con la Seconda Legge
La prima legge presuppone che nella realtà gli umani impieghino i robot. La seconda che i robot avranno una capacità limitata di comprensione degli ordini umani, e perciò verranno progettati per rispondere a un insieme di ordini di un limitato numero di esseri umani. L’ultima legge è invece un po’ più complicata. Come ha sottolineato Woods: "I robot esistono in un mondo aperto, in cui non è possibile sapere tutto ciò che sta per succedere. I robot dovrebbero avere un po’ di autonomia per agire e reagire nelle situazioni reali: occorre prendere decisioni per proteggere se stessi, ma anche trasferire il controllo agli umani in momenti opportuni.”
Sull’ultimo numero della rivista IEEE Intelligent Systems, due ingegneri propongono ora di riscriverle in una forma più aggiornata e realistica per i robot del futuro, con maggiori garanzie di sicurezza.
"A ben pensarci, la nostra visione culturale dei robot è stata sempre quella di considerarli esseri anti-umani e pro-robot”, ha commentato David Woods, professore di ingegneria dei sistemi integrati della Ohio State University, autore dello studio insieme con Robin Murphy della Texas A&M University. "Inoltre, si crede comunemente che i robot rappresentino una versione migliorata degli esseri umani, in grado per esempio di commettere molti meno errori di noi. Il nostro vuole essere un contributo a considerare le cose in modo più realistico.”
Ecco come si presentano le tre leggi di Asimov riportate nel suo "Manuale di robotica":
• Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
• Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
• Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima e con la Seconda Legge
Le leggi proposte da Woods e Murphy sono invece le seguenti:
• Un essere umano, non può utilizzare un robot senza che il sistema di lavoro uomo-robot raggiunga i più alti livelli legali e professionali di sicurezza ed etica
• Un robot deve rispondere agli esseri umani in modo appropriato al loro ruolo
• Un robot deve essere dotato di autonomia sufficiente per proteggere la propria esistenza a condizione che tale protezione fornisca un graduale trasferimento di controllo che non sia in conflitto con la Prima e con la Seconda Legge
La prima legge presuppone che nella realtà gli umani impieghino i robot. La seconda che i robot avranno una capacità limitata di comprensione degli ordini umani, e perciò verranno progettati per rispondere a un insieme di ordini di un limitato numero di esseri umani. L’ultima legge è invece un po’ più complicata. Come ha sottolineato Woods: "I robot esistono in un mondo aperto, in cui non è possibile sapere tutto ciò che sta per succedere. I robot dovrebbero avere un po’ di autonomia per agire e reagire nelle situazioni reali: occorre prendere decisioni per proteggere se stessi, ma anche trasferire il controllo agli umani in momenti opportuni.”
lescienze.espresso.repubblica.it
Posted in: TECNOLOGIA on sabato 1 agosto 2009 at alle 09:47