#inteligenciaartificial
“Não há criatividade na IA, toda a gente está a construir sistemas redundantes, baseados nos mesmos dados que usam fontes não verificadas”
Daniela Braga, Empresária. Foto: Tiago Miranda.
A empresária portuguesa Daniela Braga, que esteve na conferência HumanX em Las Vegas, aponta para problemas de criatividade na forma como os grandes modelos de Inteligência Artificial estão a ser desenvolvidos e diz que região europeia deve virar-se para modelos open source que possa escrutinar e afinar.
A fundadora e CEO da Defined.ai, empresa que se distingue pela ética dos dados usados para treinar modelos de Inteligência Artificial, foi uma das oradoras convidadas para estar na primeira edição de sempre da HumanX, em Las Vegas. A conferência criada por Stefan Weitz focou-se na criação de sistemas IA transparentes e robustos, com as salvaguardas devidas, que possam escalar mantendo a confiança dos mercados e das pessoas. Falámos com Daniela Braga no hotel Fontainebleau, onde decorreu a conferência, sobre os temas em que foi chamada a participar: um ‘fireside chat’ sobre ética e IA, tema em que se centra a sua missão de conselheira da Casa Branca à União Europeia e World Economic Forum; e uma mesa redonda sobre os limites da criatividade.
Por que foi importante estar na primeira edição da HumanX?
Nós estamos sempre nestas conferências. Na Inteligência Artificial eu construí uma empresa completamente diferente na área de dados, de fontes de dados fechadas e dados éticos. Não estar aqui seria realmente estranho.
Quais são os limites da criatividade em IA no formato atual?
Todos os sistemas de Inteligência Artificial estão a ser construídos baseados nos mesmos dados, que são ‘scraped’ [raspados] da web. Os resultados e os comportamentos destes sistemas são basicamente os mesmos. Eu ando a falar em redundância, até nas Nações Unidas, há muito tempo. Toda a gente está a construir sistemas redundantes, baseados nos mesmos dados, que têm preconceitos, que têm violações de copyright, que não são de fontes verificadas e são todos avaliados nos mesmos benchmarks. Basicamente, todos os sistemas, biliões de investimentos, respondem mais ou menos da mesma forma.
Ou seja, corremos o risco de, daqui a uns anos, estarmos todos a pensar da mesma forma ou a receber o mesmo tipo de respostas?
Por um lado, toda a gente está a usar a mesma metodologia, os mesmos dados não sempre obtidos legalmente, testados da mesma maneira. Portanto, há uma falta de criatividade no desenvolvimento destes sistemas. É a primeira coisa que eu tenho a dizer. A segunda questão é mais filosófica. Por que razão estamos a fazer tantos investimentos deste nível de escala em sistemas que se comportam exatamente da mesma forma? Não seria mais interessante construir modelos mais pequenos, mas mais focados em resolver problemas que realmente diferenciam a Humanidade?
Refere-se aos SLM?
Small language models [pequenos modelos de linguagem], que podem ser agentes, mas que resolvam problemas específicos. Toda a gente está a tentar resolver os mesmos problemas e não os problemas ao nível da educação, da saúde, problemas de raciocínio, mas ao nível por exemplo das ciências e ciências da vida ninguém está a fazer modelos específicos bem feitos. É tudo genérico, gigante, investimentos redundantes quando há tanta coisas que podiam ser rapidamente abordadas, até a questão das causas naturais, dos desastres naturais.
O que é que explica isto? É o facto de estarem todas estas empresas a tentarem ser o campeão?
Claro, isto é a corrida da IA. Depois tem a questão geopolítica. A situação geopolítica dos Estados Unidos versus China, agora agravada com outros conflitos.
Os EUA estão a criticar a Europa e até parecem concorrentes em vez de aliados.
Concorrentes, exatamente.
Estas novidades que vimos da China, como DeepSeek, introduzem alguma criatividade e inovação?
Não, criatividade nenhuma. Zero criatividade. A China é conhecida por copiar e fazer melhor. Copiam, mas já fazem melhor. Com menos dinheiro e mais barato, porque é uma obra mais barata. É tudo a mesma coisa. Ainda por cima, eu não experimentei o DeepSeek, mas o que eu leio é que há um filtro político. Continua-se a não conseguir perceber como tudo o que vem promovido pela República Popular da China tem salvaguardas ao nível do posicionamento político e de explicitar certos eventos que estão a acontecer. Nós temos outras salvaguardas no mundo ocidental. Obviamente, se fizermos uma pergunta ao modelo de como desenvolver uma bomba atómica, o modelo não vai responder porque está preparado para não responder a questões que causem danos, risco, violência às pessoas. Mais uma vez, se há alguma criatividade é na forma de como é que se abordam ou como se respondem a certas questões políticas. Mas aqui também, durante a campanha das presenciais, havia um claro posicionamento da Google, pelo menos da Google que eu me lembro, que não respondia a questões sobre o partido democrata. Respondia só a questões do partido republicano. Portanto, é para explicar que os modelos são todos enviesados. É possível prepará-los para responder mais ou menos perguntas. Há o modelo do Elon Musk, o Grok.
Que diz que tem menos filtros, não é?
Sim. Alega que é tudo liberdade de expressão. E que essa liberdade de expressão vai até ao limite de poder falar sobre racismo, sexismo e todos os ismos possíveis sem filtro. Aí, sim, podemos ver que se vai haver diferenciação é como é que se vão afinar estes modelos com salvaguardas que dizem só aquilo que interessa. Quando entram na questão ideológica é problemático.
Podemos na Europa, ou mesmo num país como Portugal, criar SLM que sejam mais criativos e que se distingam?
Podemos. Já ando a dizer há seis ou sete anos que podemos, mas eu acho que já perdemos o comboio. Quando a Comissão Europeia estava a discutir milhões para a IA, o Banco Europeu de Investimento tinha criado um fundo de fundos para desenvolver IA, e que nunca foi lá, nesse tempo ainda havia uma chance. Neste momento, a Europa perdeu o comboio. O que é que a Europa pode fazer? Agarrar em modelos open source que, mesmo assim, é preciso escrutinar. É preciso ver qual é a tabela nutricional destes modelos open source. A maior parte dos modelos open source foram construídos da mesma maneira não criativa que eu estou a dizer. E ilegal. Mas é começar por uma base open source e fechar o modelo para afinar. E dirigi-lo para aplicações concretas. Não vamos ter ilusões que a Europa vai conseguir construir um grande modelo de linguagem da escala que a gente vê atualmente todos os dias sair mais um. Estamos a falar de biliões de investimentos.
Uma das questões mais falada na sessão de abertura com Kamala Harris e o congressista republicano Jay Obernolte, é a diferença de abordagem entre os EUA e a Europa em relação à regulação, ou temos segurança ou temos inovação. Quem é que está certo? Ou ninguém está certo?
Para já, há uma ideia errada que os Estados Unidos são contra a regulação. Cada estado tem a sua própria lista de regulações em IA, com os estados da Califórnia e do Colorado a serem ‘template’ para todos os estados. Nós fazemos parte da Consumer Technology Association, que organiza o CES, estamos no AI Group, e a lista mensal de leis que passam ou que estão em aprovação por cada estado é gigantesca. Eu acho que as pessoas ainda estão naquela narrativa da Europa é que é regulação e os Estados Unidos não, e não é verdade. Nós, todos os dias, temos que filtrar dados do nosso ‘closed source marketplace’ para certos Estados porque a lei da biométrica foi instituída no Illinois, Texas e Washington e Califórnia. E já temos que tirar esses estados dos mapas.
Ou seja, é uma manta de retalhos em vez de uma legislação federal?
Claro, é uma manta de retalhos com muitas aproximações e com um ‘template’ que os outros estados estão a seguir promovido pela Califórnia e pelo Colorado. A segunda questão é que a Europa, como não desenvolve, que esse aqui é o problema, vai agora estar mais preocupada em aplicar sanções. E, de facto, a Europa é mais punitiva porque há a questão das sanções e das multas, que aqui há menos. Não há uma tabela de preços de multas tão clara como há na Europa. O que também coloca a Europa só numa situação de ser protecionista, mas não olhando para estas novas tecnologias e tentando perceber qual é a mais ética para adotar e isso sim, defender. Caímos numa situação em que o consumidor vai decidir sozinho. Vai decidir pelo que é mais acessível, no sentido de ser mais disseminado, mais fácil de instalar, mais fácil de usar. E que não é necessariamente a melhor ferramenta no futuro.
Então, corremos o risco de investidores, talento técnico e empresas fugirem da Europa por causa dessa abordagem mais punitiva?
O talento já sai da Europa todos os dias. Não é tanto por aí. O que estou mais preocupada é que as empresas que de facto têm uma agenda ética, como, vou ter que dizer, uma IBM, uma Microsoft e uma Meta, não consigam entrar na Europa, em detrimento de outras menos éticas, como a OpenAI, como a Anthropic, como a DeepSeek. E essas, sim, terem uma adoção mais rápida.
Qual é o maior risco que nós enfrentamos neste momento relativo à inteligência artificial?
Cair nas mãos erradas com stakeholders que a podem usar no sentido de propaganda e desinformação.
Por que foi importante estar na primeira edição da HumanX?
Nós estamos sempre nestas conferências. Na Inteligência Artificial eu construí uma empresa completamente diferente na área de dados, de fontes de dados fechadas e dados éticos. Não estar aqui seria realmente estranho.
Quais são os limites da criatividade em IA no formato atual?
Todos os sistemas de Inteligência Artificial estão a ser construídos baseados nos mesmos dados, que são ‘scraped’ [raspados] da web. Os resultados e os comportamentos destes sistemas são basicamente os mesmos. Eu ando a falar em redundância, até nas Nações Unidas, há muito tempo. Toda a gente está a construir sistemas redundantes, baseados nos mesmos dados, que têm preconceitos, que têm violações de copyright, que não são de fontes verificadas e são todos avaliados nos mesmos benchmarks. Basicamente, todos os sistemas, biliões de investimentos, respondem mais ou menos da mesma forma.
Ou seja, corremos o risco de, daqui a uns anos, estarmos todos a pensar da mesma forma ou a receber o mesmo tipo de respostas?
Por um lado, toda a gente está a usar a mesma metodologia, os mesmos dados não sempre obtidos legalmente, testados da mesma maneira. Portanto, há uma falta de criatividade no desenvolvimento destes sistemas. É a primeira coisa que eu tenho a dizer. A segunda questão é mais filosófica. Por que razão estamos a fazer tantos investimentos deste nível de escala em sistemas que se comportam exatamente da mesma forma? Não seria mais interessante construir modelos mais pequenos, mas mais focados em resolver problemas que realmente diferenciam a Humanidade?
Refere-se aos SLM?
Small language models [pequenos modelos de linguagem], que podem ser agentes, mas que resolvam problemas específicos. Toda a gente está a tentar resolver os mesmos problemas e não os problemas ao nível da educação, da saúde, problemas de raciocínio, mas ao nível por exemplo das ciências e ciências da vida ninguém está a fazer modelos específicos bem feitos. É tudo genérico, gigante, investimentos redundantes quando há tanta coisas que podiam ser rapidamente abordadas, até a questão das causas naturais, dos desastres naturais.
O que é que explica isto? É o facto de estarem todas estas empresas a tentarem ser o campeão?
Claro, isto é a corrida da IA. Depois tem a questão geopolítica. A situação geopolítica dos Estados Unidos versus China, agora agravada com outros conflitos.
Os EUA estão a criticar a Europa e até parecem concorrentes em vez de aliados.
Concorrentes, exatamente.
Estas novidades que vimos da China, como DeepSeek, introduzem alguma criatividade e inovação?
Não, criatividade nenhuma. Zero criatividade. A China é conhecida por copiar e fazer melhor. Copiam, mas já fazem melhor. Com menos dinheiro e mais barato, porque é uma obra mais barata. É tudo a mesma coisa. Ainda por cima, eu não experimentei o DeepSeek, mas o que eu leio é que há um filtro político. Continua-se a não conseguir perceber como tudo o que vem promovido pela República Popular da China tem salvaguardas ao nível do posicionamento político e de explicitar certos eventos que estão a acontecer. Nós temos outras salvaguardas no mundo ocidental. Obviamente, se fizermos uma pergunta ao modelo de como desenvolver uma bomba atómica, o modelo não vai responder porque está preparado para não responder a questões que causem danos, risco, violência às pessoas. Mais uma vez, se há alguma criatividade é na forma de como é que se abordam ou como se respondem a certas questões políticas. Mas aqui também, durante a campanha das presenciais, havia um claro posicionamento da Google, pelo menos da Google que eu me lembro, que não respondia a questões sobre o partido democrata. Respondia só a questões do partido republicano. Portanto, é para explicar que os modelos são todos enviesados. É possível prepará-los para responder mais ou menos perguntas. Há o modelo do Elon Musk, o Grok.
Que diz que tem menos filtros, não é?
Sim. Alega que é tudo liberdade de expressão. E que essa liberdade de expressão vai até ao limite de poder falar sobre racismo, sexismo e todos os ismos possíveis sem filtro. Aí, sim, podemos ver que se vai haver diferenciação é como é que se vão afinar estes modelos com salvaguardas que dizem só aquilo que interessa. Quando entram na questão ideológica é problemático.
Podemos na Europa, ou mesmo num país como Portugal, criar SLM que sejam mais criativos e que se distingam?
Podemos. Já ando a dizer há seis ou sete anos que podemos, mas eu acho que já perdemos o comboio. Quando a Comissão Europeia estava a discutir milhões para a IA, o Banco Europeu de Investimento tinha criado um fundo de fundos para desenvolver IA, e que nunca foi lá, nesse tempo ainda havia uma chance. Neste momento, a Europa perdeu o comboio. O que é que a Europa pode fazer? Agarrar em modelos open source que, mesmo assim, é preciso escrutinar. É preciso ver qual é a tabela nutricional destes modelos open source. A maior parte dos modelos open source foram construídos da mesma maneira não criativa que eu estou a dizer. E ilegal. Mas é começar por uma base open source e fechar o modelo para afinar. E dirigi-lo para aplicações concretas. Não vamos ter ilusões que a Europa vai conseguir construir um grande modelo de linguagem da escala que a gente vê atualmente todos os dias sair mais um. Estamos a falar de biliões de investimentos.
Uma das questões mais falada na sessão de abertura com Kamala Harris e o congressista republicano Jay Obernolte, é a diferença de abordagem entre os EUA e a Europa em relação à regulação, ou temos segurança ou temos inovação. Quem é que está certo? Ou ninguém está certo?
Para já, há uma ideia errada que os Estados Unidos são contra a regulação. Cada estado tem a sua própria lista de regulações em IA, com os estados da Califórnia e do Colorado a serem ‘template’ para todos os estados. Nós fazemos parte da Consumer Technology Association, que organiza o CES, estamos no AI Group, e a lista mensal de leis que passam ou que estão em aprovação por cada estado é gigantesca. Eu acho que as pessoas ainda estão naquela narrativa da Europa é que é regulação e os Estados Unidos não, e não é verdade. Nós, todos os dias, temos que filtrar dados do nosso ‘closed source marketplace’ para certos Estados porque a lei da biométrica foi instituída no Illinois, Texas e Washington e Califórnia. E já temos que tirar esses estados dos mapas.
Ou seja, é uma manta de retalhos em vez de uma legislação federal?
Claro, é uma manta de retalhos com muitas aproximações e com um ‘template’ que os outros estados estão a seguir promovido pela Califórnia e pelo Colorado. A segunda questão é que a Europa, como não desenvolve, que esse aqui é o problema, vai agora estar mais preocupada em aplicar sanções. E, de facto, a Europa é mais punitiva porque há a questão das sanções e das multas, que aqui há menos. Não há uma tabela de preços de multas tão clara como há na Europa. O que também coloca a Europa só numa situação de ser protecionista, mas não olhando para estas novas tecnologias e tentando perceber qual é a mais ética para adotar e isso sim, defender. Caímos numa situação em que o consumidor vai decidir sozinho. Vai decidir pelo que é mais acessível, no sentido de ser mais disseminado, mais fácil de instalar, mais fácil de usar. E que não é necessariamente a melhor ferramenta no futuro.
Então, corremos o risco de investidores, talento técnico e empresas fugirem da Europa por causa dessa abordagem mais punitiva?
O talento já sai da Europa todos os dias. Não é tanto por aí. O que estou mais preocupada é que as empresas que de facto têm uma agenda ética, como, vou ter que dizer, uma IBM, uma Microsoft e uma Meta, não consigam entrar na Europa, em detrimento de outras menos éticas, como a OpenAI, como a Anthropic, como a DeepSeek. E essas, sim, terem uma adoção mais rápida.
Qual é o maior risco que nós enfrentamos neste momento relativo à inteligência artificial?
Cair nas mãos erradas com stakeholders que a podem usar no sentido de propaganda e desinformação.
Ana Rita Guerra. E-Revista Expresso, 17 de março de 2025
Sem comentários:
Enviar um comentário