O carregador universal USB-C é agora obrigatório em França

O que é a inteligência artificial (IA)?

A inteligência artificial é um ramo da ciência da computação que tem por objetivo criar sistemas capazes de realizar tarefas que normalmente requerem a inteligência humana, como o raciocínio, a interpretação ou a tomada de decisões. Utilizando técnicas como a aprendizagem automática e o processamento de linguagem natural. Ao combinar a matemática, a informática e a linguística, a IA está a revolucionar sectores inteiros, da saúde às finanças, sem esquecer a criação digital. Mas o que está realmente por detrás deste novo conceito que se tornou incontornável?

Como é que um computador me pode compreender e responder?

Durante décadas, a ideia de um computador capaz de falar e compreender a nossa língua parecia coisa de ficção científica. Hoje, no entanto, esta visão tornou-se realidade graças aos avanços espectaculares da informática e do processamento da linguagem natural (PNL).

Quando falamos de linguagem natural, estamos a falar da forma como nós, humanos, comunicamos: frases com nuances, cheias de ambiguidade, emoção e, por vezes, até contradição. Para que um computador possa compreender esta linguagem complexa, não basta programar um dicionário. Tem de aprender a pensar como nós, ou pelo menos a reconhecer as estruturas gramaticais, os contextos culturais e as intenções por detrás de cada palavra.

Modelos recentes como o Gemini ou o ChatGPT utilizam milhares de milhões de dados textuais para aprender a responder de forma natural e contextual.

É claro que a compreensão da linguagem humana pelos computadores não é perfeita. As nuances culturais, as expressões idiomáticas e até o humor continuam a ser obstáculos.

1950: Um teste experimental e a descoberta da primeira inteligência artificial

A história dos computadores capazes de compreender a linguagem humana natural remonta à década de 1950, quando o matemático britânico Alan Turing publicou um artigo intitulado Computing Machinery and Intelligence, no qual propôs o famoso “teste de Turing”. Este teste tem por objetivo determinar se uma máquina pode apresentar um comportamento inteligente indistinguível do de um ser humano, avaliando a sua capacidade de iniciar uma conversa em linguagem natural.

Alan Turing 'Computing Machinery & Intelligence' 1ª Edição Mente outubro de 1950
Alan Turing ‘Computing Machinery & Intelligence’ 1ª edição Mente outubro de 1950

Esta ideia inspirou vários investigadores, incluindo Joseph Weizenbaum, que desenvolveu o programa ELIZA no MIT em 1966. O ELIZA simula uma conversa adoptando o papel de um terapeuta Rogeriano, respondendo aos utilizadores reformulando as suas afirmações sob a forma de perguntas. Embora baseado em regras simples de correspondência de padrões, o ELIZA demonstrou a viabilidade da interação homem-máquina em linguagem natural, suscitando tanto o fascínio como o debate sobre os limites da verdadeira compreensão por parte das máquinas.

2011: Google Brain para pesquisa em linha

Em 2011, a Google lançou o projeto Google Brain, uma iniciativa ambiciosa para explorar o potencial da inteligência artificial (IA) e das redes neurais profundas. O projeto, que começou como uma colaboração entre investigadores da Google e de Stanford, evoluiu rapidamente para um pilar central da inovação tecnológica da Google.

Desde o início, o Google Brain teve um impacto significativo num dos principais produtos da empresa: o seu motor de pesquisa.

O principal objetivo do Google Brain era ultrapassar os limites da tecnologia, combinando a aprendizagem profunda com o enorme poder de computação da Google. A ideia era utilizar algoritmos inspirados no cérebro humano para analisar, compreender e interpretar dados a uma escala sem precedentes.

Ao aplicar esta tecnologia ao motor de busca, a Google pretendia melhorar a relevância dos resultados e compreender as intenções dos utilizadores, mesmo quando as suas consultas eram ambíguas ou mal formuladas.

2022: ChatGPT, inteligência artificial de conversação da OpenAI

O ChatGPT, desenvolvido pela OpenAI, é um modelo avançado de inteligência artificial concebido para interagir com os utilizadores através de conversas naturais. Baseado na tecnologia GPT (Generative Pre-trained Transformer), é capaz de compreender e gerar texto em várias línguas e sobre uma grande variedade de assuntos.

2022 ChatGPT e inteligência artificial generativa
A interface ChatGPT

O ChatGPT destaca-se em várias áreas: escrita de artigos, criação de conteúdos de marketing, assistência técnica, explicação de conceitos complexos e até assistente de código informático. A sua capacidade de se adaptar ao tom e estilo necessários torna-o uma ferramenta particularmente útil para profissionais, estudantes e criadores de conteúdos.

O modelo baseia-se na aprendizagem profunda, treinada em grandes quantidades de dados textuais. Graças aos seus mecanismos de pré-treino e de afinação, pode dar respostas precisas, coerentes e muitas vezes contextualmente relevantes. Isto permite-lhe simular uma compreensão quase humana dos diálogos.

O ChatGPT nasceu da extensa investigação da OpenAI sobre modelos de linguagem. A OpenAI, fundada em 2015 por nomes como Elon Musk e Sam Altman, tinha como missão democratizar o acesso à inteligência artificial, assegurando simultaneamente o seu desenvolvimento ético.

Transformador generativo pré-treinado: Como é que a IA funciona?

Os modelos Generative Pre-trained Transformer (GPT) baseiam-se na arquitetura Transformer introduzida pela primeira vez no artigo“Attention Is All You Need” (Vaswani et al., 2017). Os GPT são então considerados como redes neurais profundas capazes de analisar e gerar linguagem natural em grande escala. São chamadas pré-treinadas porque são primeiro expostas a grandes quantidades de texto (esta é a fase de pré-treinamento) e depois podem ser especializadas ou afinadas para várias tarefas (esta é a fase de afinação).

Um pouco de história: de onde surgiu a ideia do Transformer?

Voltemos atrás alguns anos. Antes de Transformers, o processamento de linguagem natural baseava-se em métodos mais tradicionais, como redes recorrentes (RNN, LSTM) ou abordagens estatísticas. Estas técnicas funcionavam, mas tinham dificuldades em compreender o contexto de frases longas. Quanto mais longa era a frase, mais difícil era para a IA manter o controlo. O resultado foi uma certa dificuldade em processar textos complexos.

Em vez de processar as palavras uma a uma por ordem, o Transformer utiliza um mecanismo deatenção que lhe permite concentrar-se em todas as partes de uma frase em simultâneo. Isto torna muito mais fácil compreender e manipular longas sequências de texto, sem que a máquina se perca pelo caminho. Este avanço mudou o jogo, abrindo caminho para modelos mais poderosos e versáteis.

O fundo do poço: engolir giga-tons de texto

Quando falamos da fase de formação (ou de pré-treino) de um GPT, estamos a descrever um processo em que a IA vai analisar milhares de milhões de palavras. Livros digitais, artigos de blogues, sítios Web… em suma, tudo o que estiver acessível em formato de texto. O objetivo? Aprender as regras da língua, desde a gramática básica até às subtilezas estilísticas, sem ter de lhe dar a mínima etiqueta de “correto/incorreto”. É a chamada auto-supervisão.

O princípio é simples: em cada fase, o GPT tentará adivinhar a palavra seguinte numa frase, com base no contexto anterior. Pode pensar-se nisto como um gigantesco jogo de adivinhação, em que o modelo aperfeiçoa as suas estatísticas através de previsões sucessivas. Pouco a pouco, aperfeiçoa o seu conhecimento da língua, compreende a correlação entre as palavras e, no processo, reúne uma grande quantidade de informações sobre o mundo (que, aliás, por vezes cospe sem filtrar!).

Aperfeiçoamento: especialização

Uma vez que o GPT tenha digerido imensas quantidades de texto, ele já é capaz de produzir conteúdo coerente. Mas não ficamos por aqui. Há uma outra fase de “afinação” durante a qual especializamos o modelo. Por exemplo, se quisermos um chatbot de assistência médica, afinamo-lo com dados de saúde verificados, para que responda de forma precisa e cautelosa.

Este polimento também pode ser efectuado através da Aprendizagem por Reforço com Feedback Humano (RLHF), que envolve mostrar potenciais respostas a avaliadores humanos. Os avaliadores assinalam os resultados e a IA aprende a corresponder o mais possível às expectativas humanas.

O que você acha deste artigo?
🙄
😤
😃
🥴
😂
😍
× zoom plus modale
Rolar para cima