Sobre
O projeto NHNAI – “Um novo humanismo na era das neurociências e da inteligência artificial” é uma iniciativa desenvolvida pela Universidade Católica de Lyon, França. Desde 2022, o projeto está a decorrer em nove países (França, Portugal, Bélgica, Itália, Canadá, EUA, Chile, Quénia, Taiwan). Portugal participa neste projeto através da Faculdade de Ciências Humanas da Universidade Católica Portuguesa.
Nos últimos anos, os desenvolvimentos tecnológicos e científicos têm trazido muitas alterações ao nosso quotidiano. O uso de algumas ferramentas mais avançadas (por exemplo, carros autónomos) pode ter consequências vantajosas e desvantajosas para a vida coletiva e para a nossa identidade humana. Deste modo, o objetivo principal do projeto é promover a discussão, a nível da sociedade civil, sobre estes aspetos.
Em 2023, realizámos três debates focados na identificação de implicações resultantes destes avanços tecnológicos e científicos:
Educação
Estudantes, professores, educadores, encarregados de educação, psicólogos, psiquiatras
- Que competências, valores e/ou características humanas devem ser estimuladas em todas as pessoas?
- À medida que, cada vez mais, delegamos tarefas tipicamente humanas à inteligência artificial, como podemos impedir que isso condicione o nosso crescimento como humanos?
- Que papel pode ter a educação na prevenção de maus usos da inteligência artificial e das neurociências?
- À medida que os robôs adquirem mais características humanas, como podem os humanos ser menos como robôs?
Saúde
Pessoas com doença crónica, enfermeiros, médicos, farmacêuticos, psicólogos, assistentes sociais, cuidadores informais, utentes
- Como podemos conciliar o uso de tecnologia em contextos de saúde com a humanização dos cuidados de saúde?
- Que implicações poderão advir do facto de o apoio médico e o apoio psicológico serem automatizados (p.e., através de aplicações para telemóvel com opção de conversação com um robô)?
- Como podemos evitar que o uso da ciência e da tecnologia para melhorar competências físicas e cognitivas potencie discriminação social?
- Até onde é desejável travarmos ou revertermos o processo de envelhecimento físico e cognitivo natural?
Democracia
Jornalistas, advogados, programadores, representantes de associações de direitos humanos, psicólogos
- De que valores e princípios éticos se pode abdicar, para a sociedade usufruir dos avanços científicos e tecnológicos (p.e., abdicar da privacidade, em prol da segurança resultante de videovigilância por reconhecimento facial)?
- Que usos dos avanços científicos e tecnológicos devem ser proibidos (p.e., neuroimagem para avaliar se as pessoas estão a mentir)?
- Que funções humanas (p.e., escrever textos, conduzir) não devem ser exercidas (apenas) por robôs?
- Qual é a responsabilidade dos humanos face a ações (p.e., diagnósticos médicos) executadas por máquinas?
Em 2024, realizámos três debates focados na identificação de soluções para minimizar potenciais riscos resultantes destes avanços tecnológicos e científicos:
Riscos para as características humanas
Professores, educadores, psicólogos, programadores, filósofos, estudantes
Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…
- … tornar os humanos menos perseverantes?
- … tornar os humanos cognitivamente mais pobres (p.e., inteligência, pensamento crítico)?
- … tornar os humanos menos criativos?
- … tornar os humanos menos autónomos (p.e., tomada de decisão delegada às máquinas)?
- … ignorar a singularidade de cada humano?
Riscos para o bem-estar humano
Professores, filósofos, programadores, psicólogos, médicos, representantes de associações, estudantes
Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…
- … reduzir as interações humanas (p.e., substituindo pessoas por robôs em contextos de saúde e educação)?
- … levar as pessoas a satisfazer as suas necessidades relacionais recorrendo a robôs?
- … diminuir as competências interpessoais (p.e., comunicação não-verbal, empatia, gestão de conflitos, cooperação)?
- … diminuir a capacidade de tolerância à frustração (p.e., devido ao imediatismo e ao excesso de estímulos)?
- … fomentar a comparação social excessiva (p.e., gestão da imagem nas redes sociais)?
- … potenciar dificuldades emocionais (p.e., dependência, doença mental)?
Riscos para os direitos humanos
Advogados, políticos, programadores, psicólogos, representantes de associações cívicas
Como minimizar o risco de o recurso à inteligência artificial e/ou às neurociências…
- … prejudicar pessoas com dificuldades no acesso e/ou uso da tecnologia (p.e., pessoas com baixa literacia digital)?
- … reduzir os empregos disponíveis (p.e., devido à automatização de tarefas como tradução, escrita de livros, criação de música, correção de testes académicos)?
- … dificultar o acesso e a identificação de informação fidedigna (p.e., notícias falsas)?
- … ameaçar a reputação das pessoas (p.e., deep fakes) e das empresas (p.e., avaliações falsas de produtos e serviços)?
As principais ideias resultantes destes debates estão disponíveis no site do projeto, sendo possível dar continuidade ao debate por esta via.
Em 2025, ano em que termina a primeira fase do projeto, iremos organizar os últimos eventos, nos quais se pode inscrever aqui.