
Para assinalar os seus 10 anos, a LTPlabs, consultora portuguesa de gestão especializada na utilização de Inteligência Artificial (IA), criou um evento dedicado a esta inovação, o qual contou com a participação de Tom Chatfield, tech philosopher, colunista da BBC, escritor e uma das vozes atuais mais consideradas a nível tecnológico.
Em conversa com a Forbes Portugal, o britânico falou sobre os benefícios, as preocupações e os desafios presentes e futuros desta ferramenta que está a mudar de forma radical pensamento, comportamentos, operações, serviços e estruturas empresarias e escolares.
Na sua opinião, de que forma é que a inteligência artificial está a redefinir o que significa ser humano no século XXI?
Em vez de redefinir a humanidade, a IA está a obrigar-nos a articular aquilo que sempre valorizámos, mas talvez tenhamos dado como garantido. Estamos a ser relembrados de que ser humano envolve uma experiência incorporada, curiosidade genuína, capacidade para relações significativas e a habilidade de encontrar propósito para além da eficiência. A notável capacidade da IA de imitar a comunicação humana destaca, paradoxalmente, as nossas qualidades insubstituíveis: o nosso enraizamento biológico, a nossa empatia autêntica e a capacidade de lidar com a incerteza com sabedoria e não apenas com correspondência de padrões. Acrescentaria ainda que os seres humanos são, por natureza, animais tecnológicos que nunca existiram sem ferramentas. O erro está em imaginar uma essência humana pura e pré-tecnológica que a IA ameaça. Em vez disso, a IA obriga-nos a renegociar o que significa sermos seres tecnológicos — o que queremos delegar, o que queremos preservar, como nos queremos moldar.
“Deve-se começar com pouco e com objetivos claros. Em vez de grandes transformações com IA, iniciar experiências limitadas em que se possa aprender rapidamente e falhar com segurança”.
No seu trabalho tem explorado o impacto da tecnologia digital nas nossas vidas. Quais são as transformações mais urgentes que observa nas empresas hoje com a chegada da IA generativa?
A transformação mais urgente é, para mim, intelectual e cultural: ultrapassar a visão da IA como solução mágica ou ameaça existencial. As empresas precisam de entender a IA como parte de sistemas sociotécnicos complexos que envolvem dados, utilizadores, designers e cultura organizacional. Vejo organizações bem-sucedidas a focarem-se em casos de uso específicos em que a IA melhora genuinamente a experiência humana, em vez de a substituir por completo; e a adotarem uma mentalidade de experimentação significativa e rigorosa. O desafio é desenvolver a sabedoria organizacional para fazer as perguntas certas: não “O que é que a IA pode fazer?”, mas sim “Que problemas queremos resolver e como é que a IA nos pode ajudar a resolvê-los melhor, preservando o que valorizamos no julgamento e na criatividade humanos?.”
“As máquinas superinteligentes preocupam-me menos. Não penso que um dia “acordem” e decidam dominar o mundo; o que me preocupa é o que as pessoas por detrás delas estão a fazer.”
Que competências humanas se tornam mais valiosas neste novo contexto tecnológico?
A capacidade de formular perguntas significativas torna-se fundamental quando a IA pode fornecer respostas instantâneas e plausíveis a quase tudo. O pensamento crítico e a avaliação — compreender não apenas o que a informação diz, mas porque é importante e como se relaciona com os propósitos humanos — são essenciais. Destaco também a síntese entre domínios, a capacidade de trabalhar na interseção entre preocupações técnicas e humanas, e o que chamo de “sabedoria tecnológica”: saber usar ferramentas poderosas ao serviço do florescimento humano, em vez de sermos simplesmente guiados por aquilo que as ferramentas conseguem (ou os seus criadores afirmam que conseguirão) fazer.
“Preocupa-me a perda de um terreno comum para o discurso democrático, quando cada um pode gerar a sua versão conveniente da realidade; e o modo como a ‘automação’ e os ‘sistemas inteligentes’ podem ser usados como desculpa conveniente para exploração política e económica.”
Liderar equipas que colaboram com IA exige um novo tipo de literacia. Que capacidades serão essenciais para os líderes do futuro?
Os líderes precisam de compreender a IA não como inteligência abstrata, mas como sistemas concretos com capacidades, limitações e modos de falha específicos. Devem ser capazes de conceber colaborações Humano-IA que ampliem, em vez de diminuírem, a agência e a especialização humanas: pensar de forma sistémica e cultural e aceitar que respostas transformadoras podem vir de qualquer pessoa e de qualquer lugar no que toca à IA. Tudo isto exige o que chamei, num recente white paper sobre competências humanas, de “desmistificação”: compreender tanto as realidades técnicas do funcionamento destes sistemas como as realidades humanas de como as pessoas aprendem, criam e encontram significado no seu trabalho. Acima de tudo, os líderes devem ter a coragem de dizer “não precisamos de IA para isto” quando o que é necessário é ligação humana, criatividade ou julgamento — e então perguntar como e onde a IA pode realmente elevar o que os humanos estão a fazer.
“Os líderes devem ter a coragem de dizer ‘não precisamos de IA para isto’ quando o que é necessário é ligação humana, criatividade ou julgamento.”
Defende a importância de uma “mentalidade de experimentação”. Como pode ela ser desenvolvida numa cultura corporativa tradicionalmente avessa ao risco?
Deve-se começar com pouco e com objetivos claros. Em vez de grandes transformações com IA, convém iniciar experiências limitadas em que se possa aprender rapidamente e falhar com segurança. Encarar a experimentação como redução de risco e não como risco em si: o verdadeiro risco é ser apanhado desprevenido pela mudança tecnológica. É fundamental criar espaços para reflexão e aprendizagem com base tanto no sucesso como no fracasso. O mais importante é experimentar com perguntas humanas — como queremos trabalhar, que tipo de organização queremos ser — e não apenas com questões técnicas. Isso torna a experimentação menos parecida com uma aposta e mais com uma exploração cuidadosa.
“Na educação, devemos ver a IA não como ferramenta para batota, mas como um parceiro de pensamento que exige julgamento humano sofisticado para ser bem usada.”
Num cenário em que a IA automatiza cada vez mais tarefas cognitivas, qual é o papel do pensamento crítico? E como podemos fortalecê-lo em escolas, universidades e empresas?
O pensamento crítico torna-se mais importante, e não menos, quando a IA pode gerar respostas convincentes para qualquer pergunta. Precisamos de cultivar a capacidade de fazer uma pausa, questionar pressupostos e perguntar se as perguntas certas estão a ser feitas. Na educação, isto significa ir além da visão da IA como ferramenta para batota e vê-la como um parceiro de pensamento que exige julgamento humano sofisticado para ser bem usada. De facto, cofundei recentemente um consórcio de investigação que está a experimentar exatamente isso no contexto de tutores com IA: como podemos usar a IA para melhorar, em vez de substituir, o pensamento crítico, ajudando os alunos a envolverem-se mais profundamente com ideias, explorar múltiplas perspetivas e lidar com a complexidade?
“O pensamento crítico torna-se mais importante quando a IA pode gerar respostas convincentes para qualquer pergunta”.
A IA Generativa, como o ChatGPT, abre possibilidades fascinantes — mas também levanta dilemas éticos importantes. Quais são os riscos que mais o preocupam nesta nova vaga de ferramentas?
Tal como muitas pessoas, preocupa-me a erosão da capacidade humana de agir e a concentração de poder nas mãos de poucas grandes organizações. Quando tratamos a IA como algo mágico, em vez de a compreendermos como sistemas criados por indivíduos com objetivos e preconceitos específicos, tornamo-nos consumidores passivos em vez de utilizadores conscientes. O risco não é apenas que a IA cometa erros, mas que deixemos de pensar por nós próprios. Preocupa-me também a perda de um terreno comum para o discurso democrático, quando cada um pode gerar a sua versão conveniente da realidade; e o modo como a “automação” e os “sistemas inteligentes” podem ser usados como desculpa conveniente para exploração política e económica.
“Na IA Generativa preocupa-me a erosão da capacidade humana de agir e a concentração de poder nas mãos de poucas grandes organizações”
Colabora frequentemente com escolas, universidades e empresas. Que diferenças nota nas conversas sobre IA entre o meio académico e o mundo empresarial?
As instituições académicas estão a lidar com questões fundamentais sobre aprendizagem, conhecimento e desenvolvimento humano, o que conduz a conversas mais ricas sobre o significado da IA para o florescimento humano. Todavia, podem ser lentas a agir e, por vezes, ficam presas em debates demasiado abstratos. As empresas, por outro lado, estão mais focadas em aplicações práticas e implementação rápida, o que pode gerar experimentação valiosa, mas por vezes sem atenção suficiente às dimensões humanas e éticas. As conversas mais produtivas acontecem quando juntamos estas perspetivas — o rigor académico sobre o que importa com a urgência empresarial de fazer acontecer.
“O risco não é apenas que a IA cometa erros, mas que deixemos de pensar por nós próprios.”
O que o entusiasma mais — e o que o preocupa mais — no futuro próximo da inteligência artificial?
Quanto mais criamos sistemas “inteligentes”, mais somos obrigados a refletir com precisão sobre a nossa própria inteligência e singularidade. Estou muito entusiasmado com a possibilidade de a IA nos ajudar a pensar mais profundamente e não apenas mais depressa — ferramentas que ampliem a criatividade humana, nos ajudem a explorar ideias que não conseguiríamos sozinhos e permitam a mais pessoas envolverem-se com problemas complexos. Da mesma forma, preocupa-me o oposto: utilizações da IA que nos tornem intelectualmente preguiçosos, que concentrem poder de formas que diminuem a ação humana e que sejam tratadas como substitutos e não complementos da sabedoria humana. As máquinas superinteligentes preocupam-me menos. Não penso que um dia “acordem” e decidam dominar o mundo; o que me preocupa é o que as pessoas por detrás delas estão a fazer.
“Quanto mais criamos sistemas ‘inteligentes’, mais somos obrigados a refletir com precisão sobre a nossa própria inteligência e singularidade.”