Sobre

O projeto NHNAI – “Um novo humanismo na era das neurociências e da inteligência artificial” é uma iniciativa desenvolvida pela Universidade Católica de Lyon, França. Desde 2022, o projeto está a decorrer em nove países (França, Portugal, Bélgica, Itália, Canadá, EUA, Chile, Quénia, Taiwan). Portugal participa neste projeto através da Faculdade de Ciências Humanas da Universidade Católica Portuguesa.

Nos últimos anos, os desenvolvimentos tecnológicos e científicos têm trazido muitas alterações ao nosso quotidiano. O uso de algumas ferramentas mais avançadas (por exemplo, carros autónomos) pode ter consequências vantajosas e desvantajosas para a vida coletiva e para a nossa identidade humana. Deste modo, o objetivo principal do projeto é promover a discussão, a nível da sociedade civil, sobre estes aspetos.

Em 2023, realizámos três debates focados na identificação de implicações resultantes destes avanços tecnológicos e científicos:

Tema

Educação

Participantes

Estudantes, professores, educadores, encarregados de educação, psicólogos, psiquiatras

Algumas perguntas discutidas

  • Que competências, valores e/ou características humanas devem ser estimuladas em todas as pessoas?
  • À medida que, cada vez mais, delegamos tarefas tipicamente humanas à inteligência artificial, como podemos impedir que isso condicione o nosso crescimento como humanos?
  • Que papel pode ter a educação na prevenção de maus usos da inteligência artificial e das neurociências?
  • À medida que os robôs adquirem mais características humanas, como podem os humanos ser menos como robôs?
Tema

Saúde

Participantes

Pessoas com doença crónica, enfermeiros, médicos, farmacêuticos, psicólogos, assistentes sociais, cuidadores informais, utentes

Algumas perguntas discutidas

  • Como podemos conciliar o uso de tecnologia em contextos de saúde com a humanização dos cuidados de saúde?
  • Que implicações poderão advir do facto de o apoio médico e o apoio psicológico serem automatizados (p.e., através de aplicações para telemóvel com opção de conversação com um robô)?
  • Como podemos evitar que o uso da ciência e da tecnologia para melhorar competências físicas e cognitivas potencie discriminação social?
  • Até onde é desejável travarmos ou revertermos o processo de envelhecimento físico e cognitivo natural?
Tema

Democracia

Participantes

Jornalistas, advogados, programadores, representantes de associações de direitos humanos, psicólogos

Algumas perguntas discutidas

  • De que valores e princípios éticos se pode abdicar, para a sociedade usufruir dos avanços científicos e tecnológicos (p.e., abdicar da privacidade, em prol da segurança resultante de videovigilância por reconhecimento facial)?
  • Que usos dos avanços científicos e tecnológicos devem ser proibidos (p.e., neuroimagem para avaliar se as pessoas estão a mentir)?
  • Que funções humanas (p.e., escrever textos, conduzir) não devem ser exercidas (apenas) por robôs?
  • Qual é a responsabilidade dos humanos face a ações (p.e., diagnósticos médicos) executadas por máquinas?

Em 2024, realizámos três debates focados na identificação de soluções para minimizar potenciais riscos resultantes destes avanços tecnológicos e científicos:

Tema

Riscos para as características humanas

Participantes

Professores, educadores, psicólogos, programadores, filósofos, estudantes

Algumas perguntas discutidas

Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…

  • … tornar os humanos menos perseverantes?
  • … tornar os humanos cognitivamente mais pobres (p.e., inteligência, pensamento crítico)?
  • … tornar os humanos menos criativos?
  • … tornar os humanos menos autónomos (p.e., tomada de decisão delegada às máquinas)?
  • … ignorar a singularidade de cada humano?
Tema

Riscos para o bem-estar humano

Participantes

Professores, filósofos, programadores, psicólogos, médicos, representantes de associações, estudantes

Algumas perguntas discutidas

Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…

  • … reduzir as interações humanas (p.e., substituindo pessoas por robôs em contextos de saúde e educação)?
  • … levar as pessoas a satisfazer as suas necessidades relacionais recorrendo a robôs?
  • … diminuir as competências interpessoais (p.e., comunicação não-verbal, empatia, gestão de conflitos, cooperação)?
  • … diminuir a capacidade de tolerância à frustração (p.e., devido ao imediatismo e ao excesso de estímulos)?
  • … fomentar a comparação social excessiva (p.e., gestão da imagem nas redes sociais)?
  • … potenciar dificuldades emocionais (p.e., dependência, doença mental)?
Tema

Riscos para os direitos humanos

Participantes

Advogados, políticos, programadores, psicólogos, representantes de associações cívicas

Algumas perguntas discutidas

Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…

  • … prejudicar pessoas com dificuldades no acesso e/ou uso da tecnologia (p.e., pessoas com baixa literacia digital)?
  • … reduzir os empregos disponíveis (p.e., devido à automatização de tarefas como tradução, escrita de livros, criação de música, correção de testes académicos)?
  • … dificultar o acesso e a identificação de informação fidedigna (p.e., notícias falsas)?
  • … ameaçar a reputação das pessoas (p.e., deep fakes) e das empresas (p.e., avaliações falsas de produtos e serviços)?

As principais ideias resultantes destes debates estão disponíveis no site do projeto, sendo possível dar continuidade ao debate por esta via.

Em 2025, ano em que termina a primeira fase do projeto, iremos organizar os últimos eventos, nos quais se pode inscrever aqui.