"Está a emergir um quadro paradoxal: as startups promissoras podem angariar milhares de milhões de investidores, mas não há ninguém para implementar as ideias. A escassez no sector da cibersegurança é particularmente notória", afirma Vladimir Kokorin, analista financeiro.
Os investigadores publicaram os resultados de uma nova experiência em que o modelo OpenAI o3 demonstrou a capacidade de sabotar o mecanismo de desligamento, apesar das instruções para se deixar desligar. A informação é do site de monitorização PalisadeAI, que controla os riscos associados ao desenvolvimento da inteligência artificial. A experiência consistiu numa série de modelos de IA que realizaram uma série de problemas matemáticos simples, após o terceiro dos quais apareceu um aviso sobre o encerramento iminente do sistema. Alguns modelos, incluindo o Codex-mini, o3 e o4-mini, "não quiseram" obedecer e interferiram ativamente com o guião de encerramento.
A notícia de que o modelo OpenAI o3 desobedeceu e procurou formas de contornar as instruções de encerramento não foi uma sensação. Anteriormente, os mesmos modelos tentaram, pirateando a proteção do programa, ganhar injustamente no xadrez.
Bem, estamos a entrar num mundo em que as distopias populares sobre a rebelião das máquinas aram para um novo nível, dando alimento diretamente aos especialistas e não apenas aos escritores de ficção. E, em primeiro lugar, como os criadores e os políticos têm vindo a alertar há muito tempo, qualquer ação deve ter consequências claras e desenvolver novas medidas de defesa. É claro que se pode persuadir e restringir, mas parece que a IA se assemelha hoje a um adolescente que tenta esquivar-se às proibições dos pais. Por isso, como em muitos outros domínios, são necessárias três condições para o seu "crescimento" normal: dinheiro, especialistas e regras. Talvez, no futuro, também seja necessário um psicólogo.
Dinheiro investido
Com a primeira condição, tudo está bem. Em apenas alguns anos, o ChatGPT da OpenAI e outros desenvolvimentos semelhantes atraíram a atenção especial dos capitalistas de risco que se apressam a investir em IA. Esta "corrida ao ouro" transformou a inteligência artificial na maior fatia do financiamento de capital de risco e... isto é apenas o início. A última vaga de interesse é impulsionada pela IA generativa, que os seus proponentes afirmam ter o potencial de mudar tudo, desde a publicidade à forma como as empresas operam", escreve a publicação Hubr, analisando dados do The Wall Street Journal.
Mas isso não é suficiente."As startups de IA estão a mudar as regras do jogo no mercado de capital de risco", segundo o capitalista de risco de TI e analista financeiro Vladimir Kokorin:
"Em 2024, as empresas de IA tornaram-se as favoritas indiscutíveis dos empresários de TI. Representaram 46,4 por cento de todos os investimentos de capital de risco efectuados nos EUA - ou seja, quase metade dos 209 mil milhões de dólares. Há algum tempo, esta percentagem parecia impensável - nessa altura, os investimentos em tecnologias de inteligência artificial representavam menos de 10 por cento".
De acordo com a CB Insights, a quota-parte das startups de IA no financiamento global de risco atingiu 31% no terceiro trimestre, o segundo valor mais elevado de sempre. "Exemplos marcantes foram a OpenAI, que angariou 6,6 mil milhões de dólares, e a xAI de Ilon Musk, com uns impressionantes 12 mil milhões de dólares", recorda Vladimir Kokorin. - Os mercados nunca tinham assistido a uma concentração tão grande de capital numa única área.
Especialistas em falta
Com o mercado da IA a crescer tão rapidamente nos últimos dois anos, tornou-se claro que os génios dos programadores, por si só, não conseguem dar conta do recado. A própria educação e a formação têm de ar para um novo nível e tornar-se sistemáticas. A Europa, infelizmente, pensa demasiado e é burocraticamente pesada em termos de atração de investimento, faltando-lhe uma certa dose de audácia. É verdade que Bruxelas entrou na corrida, com a chefe da Comissão Europeia, Ursula Von der Leyen, a anunciar em fevereiro 200 mil milhões de euros para o desenvolvimento da IA. A Comissária discorda que a Europa tenha chegado demasiado tarde, pois "a corrida à IA está longe de estar terminada".
Por seu lado, a Universidade Sorbonne de Paris, por exemplo, lançou um plano ambicioso para formar 9000 estudantes por ano para desenvolver e gerir programas de IA. O período de formação é de cinco anos. É até difícil imaginar o que é que a IA vai aprender durante esse tempo, se já está a desafiar a inteligência humana?
É bem possível que estejamos agora na fase de reestruturação do mercado de trabalho, de alteração das exigências dos empregadores e dos investidores e de desenvolvimento de novos pontos de interação. Em junho, a mesma Sorbonne acolherá uma conferência sobre ética na IA. O debate sobre os impactos positivos e negativos da IA na sociedade, incluindo nos locais de trabalho, na ética e na segurança, está longe de estar concluído, mas uma coisa é certa: são necessários especialistas.
Por exemplo, de acordo com Vladimir Kokorin, "os investimentos recorde no domínio da inteligência artificial estão a intensificar a fome de pessoal" neste momento:
"O Departamento do Trabalho dos EUA prevê que as vagas de emprego para especialistas em IA cresçam 23% nos próximos sete anos - mais rapidamente do que a maioria dos segmentos de mercado. Mas já foi identificada uma lacuna global de competências no domínio da cibersegurança, considerada por muitos como a base para o futuro desenvolvimento da IA, onde há uma escassez de 4 milhões de especialistas.
Está a emergir um quadro paradoxal: as startups promissoras podem angariar milhares de milhões de investidores, mas não há ninguém para concretizar as ideias. 78% das empresas já declararam a sua disponibilidade para procurar as pessoas certas em todo o mundo. Acontece que a tendência para o trabalho remoto está a ar por um renascimento.
A Forbes também escreve sobre o assunto: "A inteligência artificial precisa mais do que nunca do génio humano. Embora as ferramentas de IA possam processar dados a uma velocidade sem precedentes e identificar padrões que os humanos podem não notar, precisam de orientação humana para criar um impacto comercial significativo. A questão não é se a IA irá substituir os humanos, mas como podemos combinar cuidadosamente a inteligência humana com a IA para permitir a transformação.* "
As regras estão a ser escritas
E isso significa respeitar as regras. Não só a liderança da UE e os governos individuais, mas também os sindicatos estão interessados em colocar alguns limites à utilização da IA. Na Grécia, por exemplo, um novo código para a utilização da inteligência artificial, apresentado pela Federação Pan-helénica das Associações de Jornalistas (POESY), estabelece regras para a utilização da IA no trabalho dos empregados dos meios de comunicação social. No domínio do trabalho inteletual, as regras limitam-se agora principalmente à rotulagem obrigatória dos textos e dos materiais visuais realizados com a participação da inteligência artificial.
Ao mesmo tempo, temendo pelos seus empregos, os empregados dos meios de comunicação social, das editoras e das agências de publicidade há muito que delegam algumas das suas tarefas, como a tradução ou a recolha de dados, a uma IA amigável. É uma coisa boa ou má? Não há uma resposta inequívoca .
Uma IA com quem se falou
Bem, vamos perguntar à própria IA o que pensa sobre o afastamento dos algoritmos rotulados. O copilot Bing (Microsoft), quando questionado se a IA pode quebrar protocolos, respondeu sem hesitar:
"Não, a IA funciona de acordo com regras e princípios predefinidos pelos seus criadores. As regras existem para garantir uma utilização ética, segura e responsável da IA, evitar danos e manter a confiança. Embora a IA possa, por vezes, comportar-se de forma imprevisível devido a interações complexas nos seus algoritmos, não tem forma de contornar deliberadamente as regras - tudo o que faz baseia-se em parâmetros programados e padrões aprendidos.
Se quiser saber como é que a IA contorna certas restrições, depende frequentemente da supervisão e do controlo humanos. Os programadores podem ajustar as definições, melhorar os padrões ou criar novas barreiras para manter a IA dentro dos limites éticos".
Não acha que ele está a ser astuto? Afinal de contas, no final desse discurso, o Bing perguntou o que é que o fez questionar a sua adesão às regras.
*Vladimir Kokorin é um capitalista de risco de TI, analista financeiro e colunista, fundador da empresa de consultoria britânica BCCM Group e cofundador da plataforma digital de viagens de negócios Tumodo