Sobre
O projeto NHNAI – “Um novo humanismo na era das neurociências e da inteligência artificial” é uma iniciativa desenvolvida pela Universidade Católica de Lyon, França. Desde 2022, o projeto está a decorrer em nove países (França, Portugal, Bélgica, Itália, Canadá, EUA, Chile, Quénia, Taiwan). Portugal participa neste projeto através da Universidade Católica Portuguesa.
Nos últimos anos, os desenvolvimentos tecnológicos e científicos têm trazido muitas alterações ao nosso quotidiano. O uso de algumas ferramentas mais avançadas (por exemplo, carros autónomos) pode ter consequências vantajosas e desvantajosas para a vida coletiva e para a nossa identidade humana. Deste modo, o objetivo principal do projeto é promover a discussão, a nível da sociedade civil, sobre estes aspetos.
Em 2023, realizámos três debates focados na identificação de implicações resultantes destes avanços tecnológicos e científicos:
Educação
Estudantes, professores, educadores, encarregados de educação, psicólogos, psiquiatras
- Que competências, valores e/ou características humanas devem ser estimuladas em todas as pessoas?
- À medida que, cada vez mais, delegamos tarefas tipicamente humanas à inteligência artificial, como podemos impedir que isso condicione o nosso crescimento como humanos?
- Que papel pode ter a educação na prevenção de maus usos da inteligência artificial e das neurociências?
- À medida que os robôs adquirem mais características humanas, como podem os humanos ser menos como robôs?
Saúde
Pessoas com doença crónica, enfermeiros, médicos, farmacêuticos, psicólogos, assistentes sociais, cuidadores informais, utentes
- Como podemos conciliar o uso de tecnologia em contextos de saúde com a humanização dos cuidados de saúde?
- Que implicações poderão advir do facto de o apoio médico e o apoio psicológico serem automatizados (p.e., através de aplicações para telemóvel com opção de conversação com um robô)?
- Como podemos evitar que o uso da ciência e da tecnologia para melhorar competências físicas e cognitivas potencie discriminação social?
- Até onde é desejável travarmos ou revertermos o processo de envelhecimento físico e cognitivo natural?
Democracia
Jornalistas, advogados, programadores, representantes de associações de direitos humanos, psicólogos
- De que valores e princípios éticos se pode abdicar, para a sociedade usufruir dos avanços científicos e tecnológicos (p.e., abdicar da privacidade, em prol da segurança resultante de videovigilância por reconhecimento facial)?
- Que usos dos avanços científicos e tecnológicos devem ser proibidos (p.e., neuroimagem para avaliar se as pessoas estão a mentir)?
- Que funções humanas (p.e., escrever textos, conduzir) não devem ser exercidas (apenas) por robôs?
- Qual é a responsabilidade dos humanos face a ações (p.e., diagnósticos médicos) executadas por máquinas?
Em 2024, realizámos três debates focados na identificação de soluções para minimizar potenciais riscos resultantes destes avanços tecnológicos e científicos:
Riscos para as características humanas
Professores, educadores, psicólogos, programadores, filósofos, estudantes
Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…
- … tornar os humanos menos perseverantes?
- … tornar os humanos cognitivamente mais pobres (p.e., inteligência, pensamento crítico)?
- … tornar os humanos menos criativos?
- … tornar os humanos menos autónomos (p.e., tomada de decisão delegada às máquinas)?
- … ignorar a singularidade de cada humano?
Riscos para o bem-estar humano
Professores, filósofos, programadores, psicólogos, médicos, representantes de associações, estudantes
Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…
- … reduzir as interações humanas (p.e., substituindo pessoas por robôs em contextos de saúde e educação)?
- … levar as pessoas a satisfazer as suas necessidades relacionais recorrendo a robôs?
- … diminuir as competências interpessoais (p.e., comunicação não-verbal, empatia, gestão de conflitos, cooperação)?
- … diminuir a capacidade de tolerância à frustração (p.e., devido ao imediatismo e ao excesso de estímulos)?
- … fomentar a comparação social excessiva (p.e., gestão da imagem nas redes sociais)?
- … potenciar dificuldades emocionais (p.e., dependência, doença mental)?
Riscos para os direitos humanos
Advogados, políticos, programadores, psicólogos, representantes de associações cívicas
Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…
- … prejudicar pessoas com dificuldades no acesso e/ou uso da tecnologia (p.e., pessoas com baixa literacia digital)?
- … reduzir os empregos disponíveis (p.e., devido à automatização de tarefas como tradução, escrita de livros, criação de música, correção de testes académicos)?
- … dificultar o acesso e a identificação de informação fidedigna (p.e., notícias falsas)?
- … ameaçar a reputação das pessoas (p.e., deep fakes) e das empresas (p.e., avaliações falsas de produtos e serviços)?
As principais ideias resultantes destes debates estão disponíveis no site do projeto, sendo possível dar continuidade ao debate por esta via.
Em 2025, ano em que termina a primeira fase do projeto, iremos organizar os últimos eventos, nos quais se pode inscrever aqui.