Aula 4

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 20

INTELIGÊNCIA ARTIFICIAL – IA

AULA 4

Prof.ª Aline de Brittos Valdati


CONVERSA INICIAL

O objetivo desta aula é contextualizar sobre a técnica de Redes Neurais


Artificiais (RNA) da Inteligência Artificial (IA) e da Computação Cognitiva,
compreendendo o potencial para resolução de problemas complexos. Para
tanto, abordaremos o tema por meio de cinco seções elencadas a seguir:

1) A cognição humana representada pela IA: o objetivo deste tema é


demonstrar o que é cognição, quais fatores ela engloba e como a IA se
desenvolveu com base nas premissas da cognição humana em busca de
replicar a forma como nós pensamos;
2) Redes neurais artificiais: neste tópico, aprenderemos sobre Redes
Neurais Artificiais (RNAs);
3) Desafios das redes neurais profundas: o objetivo é apresentar alguns
desafios ao nível do que ainda necessita evoluir para difundir a utilização
desta técnica em diversos tipos de problemas que as organizações
necessitam resolver;
4) Computação cognitiva: o objetivo é mostrar, de forma sucinta, o que é
computação cognitiva, quais áreas que dão suporte ao seu
desenvolvimento e alguns exemplos de aplicações que usam a
computação cognitiva;
5) A computação cognitiva e o impacto nos novos modelos de negócios:
seguindo nessa linha de pensamento após conhecer a computação
cognitiva, agora vamos demonstrar em que setores de negócio ela pode
mudar a formas de trabalho que conhecemos hoje.

CONTEXTUALIZANDO

Denominamos nossa espécie Homo sapiens — homem sábio — porque


nossa inteligência é um aspecto preponderante para nossa evolução e
sobrevivência. Desde a Grécia Antiga, buscamos compreender como pensamos
e como um mero conglomerado de matéria pode perceber, compreender, prever
e manipular um mundo muito maior e mais complicado que ela própria. O campo
da IA vai além disso, pois busca não apenas compreender, mas também
construir sistemas inteligentes (Norvig; Russell, 2014).

2
Diante desse problema complexo, emergem diversas áreas de estudo que
buscam compreender o funcionamento da mente humana em prol de criar
sistemas que resolvam determinados problemas tais como os humanos
resolvem. No decorrer desta aula, abordaremos como a ciência cognitiva e as
redes neurais, técnica de IA que mais se aproxima do funcionamento da mente
humana, trabalham para resolver problemas complexos.

TEMA 1 – A COGNIÇÃO HUMANA REPRESENTADA PELA IA

Para dizer que um programa pensa como um ser humano, temos de


compreender, primeiramente, como os seres humanos pensam, se
aprofundando nos componentes reais da mente humana. Para isso, há três
formas de compreensão (Norvig; Russell, 2014):
a) Introspecção: procurando captar nossos próprios pensamentos à medida
que eles se desenvolvem;
b) Experimentos psicológicos: observando uma pessoa em ação;
c) Imagens cerebrais: observando o cérebro em ação.
Nesta busca de compreender os seres humanos, podemos defini-los
como sistemas. Para isso, adotamos a definição de que um sistema autônomo
é uma entidade independente e autorregulada. Isso significa que o sistema se
reconstitui continuamente em tempo real em resposta a mudanças em seu
ambiente (Vernon, 2014).
O aspecto de autorreorganização incorpora aprendizado,
desenvolvimento e evolução. Desse modo, a cognição é o processo pelo qual
um sistema autônomo adquire seu conhecimento e melhora seu comportamento
através de sentidos, pensamentos e experiências. Os processos cognitivos são
fundamentais para sistemas autônomos (Franklin et al., 2014).
A cognição humana trata dos processos cognitivos que permitem aos
humanos executar várias tarefas altamente especializadas (Chipman, 2015). Um
conjunto de processos que permitem que os computadores realizem tarefas
direcionadas ao desempenho nos níveis de cognição humana é conhecido como
cognição de máquina. A cognição humana emprega meios biológicos e naturais
— cérebro e mente — para sua realização. Por outro lado, a cognição da
máquina vê a cognição como um tipo de computação e utiliza técnicas de
computação cognitiva para sua realização (Gudivada, 2016).

3
Mesmo com os diversos avanços na ciência quanto aos estudos da
cognição, ainda não se tem uma teoria da mente suficientemente precisa que
possa ser expressa em linguagem de máquina, simulando com perfeição o
comportamento humano. Caso os comportamentos de entrada/saída e
sincronização do programa coincidirem com os comportamentos humanos
correspondentes, isso será a evidência de que algumas das rotinas do programa
também funcionam de maneira similar nos seres humanos (Norvig; Russell,
2014).
Nesse sentido, Allen Newell e Herbert Simon desenvolveram o GPS, o
“Resolvedor Geral de Problemas” (do inglês, General Problem Solver). Eles não
se contentaram em apenas fazer um programa resolver problemas de forma
correta. Sua maior preocupação era comparar os passos de suas etapas de
raciocínio aos passos de indivíduos humanos resolvendo os mesmos problemas
(Newell; Simon, 1961).
Dada a complexidade, a ciência cognitiva abrange diversas disciplinas
acadêmicas, incluindo filosofia, psicologia, neurociência, linguística, IA e robótica
(Gudivada, 2016). Portanto, o campo é interdisciplinar e reúne vários modelos
computacionais da IA e técnicas experimentais da psicologia em busca de
modelar teorias precisas e verificáveis a respeito dos processos de
funcionamento da mente humana.
Com isso, surge a teoria do conexionismo. Este, por sua vez, é
considerado um conjunto de técnicas, também de diferentes áreas de estudo,
como IA, ciências cognitivas, psicologia cognitiva, neurociências e filosofia da
mente, no qual objetivam modelar fenômenos de comportamento e da mente
(Gudivada, 2016). Existem várias técnicas de conexionismo, das quais as mais
comuns usam modelos de redes neurais, como vimos anteriormente.
No início da IA, alguns autores argumentavam que, se um algoritmo
realizasse bem uma tarefa, poderia ser considerado um bom modelo de
desempenho humano. Eles também acreditavam que o inverso seria uma
verdade. Isso gerou uma série de confusão entre as abordagens de IA. Já os
autores modernos dividem em duas abordagens distintas. Assim, um bom
algoritmo nem sempre será um bom modelo de desempenho humano e
vice-versa (Norvig; Russell, 2014).

4
Essa distinção permitiu que tanto a IA quanto a ciência cognitiva
crescessem com uma maior agilidade. Os dois campos continuam a influenciar
de forma positiva um ao outro, especialmente na “visão computacional, que
incorpora evidências neurofisiológicas em modelos computacionais” (Norvig;
Russell, 2014, p. 27).
Aristóteles, filósofo da Grécia Antiga, foi um dos pioneiros na tentativa de
sistematizar o “pensamento correto”, isto é, os “processos de raciocínio
irrefutáveis”. Seus silogismos propiciaram determinados padrões que serviram
de base para estruturas de argumentos que resultam em conclusões corretas ao
receberem premissas corretas. Por exemplo: “O cavalo é um animal; todos os
animais são mamíferos; então, o cavalo é um mamífero”. Esse estudo deu início
ao campo de pesquisa conhecido como lógica (Norvig; Russell, 2014).
Os estudos de lógica do século XIX conceberam uma notação precisa
para declarações de diversos itens do mundo e suas relações, utilizando
notações aritméticas básicas para que os computadores pudessem calcular. Por
volta de 1965, já havia programas que conseguiam resolver qualquer problema
solucionável descrito em notação lógica. Porém, se não houvesse solução
lógica, o programa ficaria preso num laço infinito (Norvig; Russell, 2014).
Para Norvig e Russell (2014) essa abordagem enfrenta dois obstáculos
principais:

1) Transformar o conhecimento informal nos termos formais exigidos pela


notação lógica. Esta tarefa não é fácil e exige precisão de 100% do
conhecimento informal, a saber: “Todo homem é mortal”, este
conhecimento é uma verdade absoluta, não há dúvida, então, que pode
ser convertido em notação lógica. Porém, se não há certeza, o não é
possível converter em notação lógica;
2) Resolver um problema baseado nos princípios é totalmente diferente de
resolvê-lo na prática. Considerando que poderíamos ter sistemas com
milhares de fatos a serem analisados com base na premissa dada ao
programa, este poderia usar todos os recursos computacionais para
encontrar uma solução ótima, a não ser que exista uma programação
sobre quais etapas do raciocínio ele deva começar primeiro.

Junto com a criação dos primeiros sistemas lógicos, surgiu também o


termo agente, que é considerado como “algo que age ou executa determinada

5
atividade”. Espera-se que um agente computacional aja de modo autônomo,
perceba seu ambiente e consiga se adaptar a possíveis mudanças,
características estas similares aos dos agentes humanos. Portanto, um agente
racional tem o objetivo de encontrar o melhor resultado e mesmo que exista
alguma incerteza apresente o resultado mais adequado (Norvig; Russell, 2014).
A realização de inferências corretas faz parte das características de um
agente racional, pois um dos modos de operar racionalmente é raciocinar de
modo lógico em busca de uma solução baseada em uma premissa dada e depois
agir de acordo com essa conclusão. Todavia, nem toda inferência assertiva pode
representar toda a racionalidade envolvida no processo, pois pode envolver mais
sentidos, tal como o reflexo de se afastar de algo quente ou proteger os olhos
numa determinada situação. Nesse sentido, a representação do conhecimento
e raciocínio permitem que os agentes obtenham decisões assertivas (Norvig;
Russell, 2014).

TEMA 2 – REDES NEURAIS ARTIFICIAIS (RNAS)

Para dissertar sobre RNAs, vamos novamente contextualizar seu conceito


por meio de outros autores e depois definir o conceito de Deep Learning.

2.1 Redes Neurais Artificiais

As RNAs ressurgiram no final da década de 80. São uma família de


modelos computacionais baseados em arquiteturas conexionistas ou sistemas
de processamento paralelo e distribuído. Essa forma de computação não
algorítmica é caracterizada por sistemas que em algum nível relembram a
estrutura do cérebro humano (Braga, 2000), seguindo os princípios da cognição
humana que vimos no tópico anterior.
RNAs são sistemas paralelos distribuídos compostos por unidades de
processamento simples conhecidos como nodos, que calculam determinadas
funções matemáticas normalmente de forma não linear. Tais unidades são
dispostas em uma ou mais camadas e interligadas por um grande número de
conexões geralmente unidirecionais, conforme representado na Figura 1. Na
maioria dos modelos, essas conexões estão associadas a pesos, os quais
armazenam o conhecimento representado no modelo e servem para ponderar a

6
entrada recebida por cada neurônio da rede. O funcionamento dessas redes é
inspirado em uma estrutura física concebida pela natureza: o cérebro humano
(Braga, 2000).

Figura 1 – Arquitetura de uma Rede Neural

Fonte: Baseado em Braga, 2000.

A solução de problemas através de RNAs é bastante atrativa, já que a


forma como estes são representados internamente pela rede e o paralelismo
natural inerente à arquitetura das RNAs cria a possibilidade de um desempenho
superior ao dos modelos convencionais. Em RNAs, o procedimento usual na
solução de problemas passa inicialmente por uma fase de aprendizagem, em
que um conjunto de exemplos é apresentado para a rede, a qual extrai
automaticamente as características necessárias para representar a informação
fornecida (Braga, 2000).
Nos últimos anos, há um renascimento das redes neurais como modelos
de aprendizado de máquina poderosos. Esses modelos neurais têm sido usados
para tarefas como processamento de fala e reconhecimento de imagem por
muitas décadas. No entanto, seu uso amplo e intenso na área de Processamento
de Linguagem Natural (PNL) é relativamente novo (Goldberg, 2015).
De modo geral, o desenvolvimento de RNAs ou modelos de redes neurais
surgiu de um duplo objetivo: primeiro, entender melhor o sistema nervoso;
segundo, tentar construir sistemas de processamento de informações inspirados
em funções biológicas naturais e, assim, obter as vantagens desses sistemas
(Prieto et al., 2016).
Embora atualmente os computadores sejam capazes de realizar algumas
tarefas com mais eficiência do que o cérebro humano, os computadores são

7
incapazes de igualar a capacidade cognitiva do cérebro, sua flexibilidade,
robustez e eficiência energética (Prieto et al., 2016).
Do ponto de vista da engenharia de sistemas, uma rede neural é
considerada uma “caixa-preta”, pois imita um comportamento e não uma
estrutura e pode reproduzir qualquer função. Ao estudar a estrutura da rede, ela
não fornece nenhuma informação útil sobre o sistema que está sendo modelado.
A organização física do sistema original não é considerada. Em vez disso, uma
estrutura neural muito flexível com uma qualidade comprovada de resolução de
problemas é usada (Prieto et al., 2016).
Até agora, no que diz respeito às estatísticas convencionais, a rede neural
pode ser considerada um modelo não identificável no sentido de que várias redes
com topologias e parâmetros variados podem produzir os mesmos resultados.
Muitos dos tópicos pensados anteriormente no campo de RNAs hoje estão
consolidados. Eles provaram ser muito competitivos na resolução de problemas
do mundo real em comparação com métodos tradicionais de análise de dados,
geralmente baseados em modelagem estatística explícita (Gudivada, 2016).
O conceito de redes neurais germinou independentemente, mas com o
tempo, novos contextos e disciplinas surgiram, cobrindo objetivos mais amplos
que naturalmente incluem redes neurais. De fato, técnicas de RNAs combinam-
se naturalmente com outras, formando um conjunto de procedimentos
computacionais com uma sólida base teórica e uma eficiência inquestionável na
resolução de problemas reais em vários campos do processamento de
informações.
Como resultado, hoje em dia as RNAs não são mais consideradas um
campo de pesquisa independente. Elas se tornaram parte integrante de novos
contextos e disciplinas como Neurociência Computacional, Computação
Neromórfica, Neuroengenharia, Computação Natural, Inteligência
Computacional, Soft Computing, Aprendizado de Máquina e Neuroinformática.
(Prieto et al., 2016).

2.2 Deep Learning

O recente advento dos processadores de computação especialmente


projetados para cálculos de redes neurais fez com que as redes de aprendizado
profundo emergissem. Essas redes empregam várias camadas de unidades de

8
processamento neural. O núcleo de quase todos os algoritmos de aprendizado
profundo é a retropropagação, usada para o treinamento a rede (Balduzzi, 2015),
como vimos anteriormente.
Além disso, não há linguagem comum para descrever e analisar
algoritmos de aprendizado profundo, possibilitando diversas abordagens. As
redes de aprendizagem profunda têm tido bastante sucesso em resolver
diversos problemas de classificação. Nesses casos, as dificuldades implicam em
fornecer conjuntos de dados confiáveis para o treinamento em que as redes
possam encontrar padrões similares para as categorias e assim obter sucesso
no processo de classificação.
Apesar de grandes avanços, Hawkins et al. (2016) argumentam que as
redes neurais não funcionam replicando na íntegra todos os padrões cerebrais
conhecidos e, portanto, não refletem verdadeiramente o funcionamento do
cérebro. Portanto, do ponto de vista da neurociência, pode-se afirmar que os
sistemas baseados em arquiteturas conexionistas também carecem de
generalidade na solução de problemas da maneira que o cérebro humano
trabalha.

TEMA 3 – DESAFIOS DAS REDES NEURAIS PROFUNDAS

Em uma análise baseada em aprendizado de máquina e de dados para


que as organizações possam inovar, a Deep Learning ficou em segundo lugar
entre cerca de 2.700 tecnologias desenvolvidas para as áreas de assistência
médica, materiais, energia e transformação digital. O estudo foi conduzido pela
Lux Research e explorou áreas que incluem patentes e financiamentos para
desenvolvimento de aplicações (Ramanathan, 2018).
Para Ramanathan (2018), a tecnologia de Deep Learning se tornou muito
popular no reconhecimento de imagens nos mais diversos campos, como:

1) No reconhecimento de faces utilizado pelo Facebook;


2) No reconhecimento de locais pelo Google, ao tirarmos uma foto do local;
3) Nos casos de uso de direção autônoma, como os utilizados pelos carros
autônomos da Tesla e da Google;
4) No controle de qualidade na fabricação;

9
5) Na geração de imagens médicas (por exemplo, tecnologia para
reconhecimento do câncer em imagens que está sendo desenvolvida e
testada nos EUA em parceira com a Google).

Além disso, o potencial da Deep Learning está sendo usada em


aplicativos como segurança cibernética, design de medicamentos,
reconhecimento de voz, design de chips e otimização das operações de
fabricação (por exemplo, Nvidia criando robôs que auxiliam na linha de
montagem e podem reconhecer peças de tamanhos de diferentes e aplicar força
proporcional para montagem na linha de produção) (Ramanathan, 2018).
No entanto, os cientistas de dados devem superar vários desafios para
que o aprendizado profundo alcance ampla adoção. Vimos, num aspecto geral,
como as redes neurais funcionam. Porém, elas exigem suas próprias demandas
para serem implementadas, que para muitas organizações pode representar um
desafio no momento de implantação. Baseado nos estudos de Harper (2019) e
Toronto (2019) essas demandas incluem:

a) um conjunto de dados com informações que podem caracterizar o


problema, a fim de identificar padrões;
b) um conjunto de dados de tamanho adequado para treinar e testar a rede.
É visto em diversos estudos que, quanto maior o conjunto de dados, maior
a acurácia e a precisão nos processos de classificação;
c) um conjunto de dados confiável e com alta granularidade, ou seja, um alto
nível de detalhamento. Além disso, é necessário que, para treinar a rede,
as classificações destes dados estejam corretas. Caso contrário, os
resultados podem não ser confiáveis;
d) uma compreensão da natureza básica do problema a ser resolvido e do
domínio de aplicação para que seja possível tomar uma decisão básica
inicial sobre a criação da rede. Por exemplo, para uma análise de
sentimento, precisamos saber quais palavras representam um dado
sentimento, tal como “risos” ou “feliz” representa que uma frase pode ser
classificada na categoria de alegria. Essas decisões incluem as funções
de ativação e transferência e os métodos de aprendizado;
e) uma compreensão das ferramentas de desenvolvimento;
f) poder de processamento adequado (alguns aplicativos exigem
processamento em tempo real que excede o disponível no hardware de

10
processamento sequencial padrão). O desenvolvimento de hardware é a
chave para o futuro das redes neurais e grande potencial de agregação
de valor.

Outro desafio é que ainda não compreendemos completamente como as


soluções de RNAs aprendem. Por isso, também chamamos este método de
“caixa-preta” (black box). Apesar de termos acesso experimental completo às
RNAs e existirem máquinas neurais mais simples, não sabemos ao certo o que
acontece no processo de aprendizagem. Tendo em vista isso, como as redes
biológicas são mais complicadas que as RNAs, é ainda mais desafiador
compreender como ocorre o processo de raciocínio no cérebro (Prieto et al.,
2016).
Começamos a ter diversos desafios quanto às atividades que podem ser
automatizadas usando as redes neurais, que, de certo modo, retirarão empregos
de muitas pessoas. Porém, gerarão centenas de outros empregos exigindo
determinadas habilidades dos profissionais a serem contratados. De modo geral,
todos as demais funções nas organizações serão impactadas pelo uso da IA,
exigindo de todos habilidades comuns para lidar com essa tecnologia no suporte
de suas atividades cotidianas — um assunto que será tratado mais adiante.
A IA surge como uma tecnologia de suporte a atividades desempenhadas
pelos seres humanos, que podem ser processadas numa velocidade mais rápida
e com maior precisão do que um ser humano. Todavia, não são todas as
atividades que podem ser desenvolvidas por máquinas. Nestas, em específico,
o ser humano terá mais tempo para se dedicar, tendo em vista que atividades
repetitivas podem ser repassadas para máquinas.

TEMA 4 – COMPUTAÇÃO COGNITIVA

A ciência cognitiva é uma abordagem interdisciplinar para o estudo da


cognição. A computação cognitiva é uma área de estudos emergente introduzida
pela influência da ciência cognitiva, ciência de dados e uma variedade de
tecnologias de computação.
A computação cognitiva possibilita a compreensão de dados em diversos
formatos, tais como imagens, filmes e falas. Diferentemente de outras
tecnologias que se fundamentam em modelos matemáticos rígidos, a

11
computação cognitiva se baseia em modelos de redes neurais e modelos
estatísticos e probabilísticos de aprendizado em profundidade (Deep Learning),
como já vimos (IBM, 2018).
Os avanços recentes na disciplina de computação — tais como
“computadores de alto desempenho, chips neuromórficos, neurocams, Big Data,
aprendizado de máquina, modelagem preditiva, processamento de linguagem
natural e computação em nuvem” (Gudivada, 2016, p. 4) — estão auxiliando os
avanços nas ciências cognitivas e nas disciplinas de computação cognitiva.
Dada a origem interdisciplinar da ciência cognitiva e da ciência de dados, existem
várias perspectivas sobre elas moldadas por diversas aplicações de rápida
evolução com o uso de diversas tecnologias (Gudivada, 2016).
As arquiteturas cognitivas modelam o desempenho humano em múltiplas
funções cognitivas e tarefas. Estas arquiteturas computacionais especificam a
estrutura e as funções dos sistemas cognitivos, bem como a forma como elas
interagem entre si (Gudivada, 2016).
As teorias da ciência cognitiva fornecem estruturas para descrever vários
modelos de cognição humana, incluindo como a informação é representada e
processada pelo cérebro. O cérebro humano talvez seja o sistema mais
complexo em termos de estrutura e função. Os processos mentais do cérebro
abrangem um amplo espectro, tais como “percepção visual e auditiva, atenção,
memória, imagens, resolução de problemas e compreensão da linguagem
natural” (Gudivada, 2016, p. 7).
Os filósofos colocam questões amplas sobre a natureza da mente e a
relação entre a mente e os processos de pensamento. Eles também discutem
hipóteses para explicar a mente e seus processos mentais. O principal método
de investigação dos filósofos é o raciocínio dedutivo e indutivo. Os psicólogos
cognitivos projetam experimentos e os executam sob condições controladas
para validar hipóteses e desenvolver teorias cognitivas (Neisser, 2014).
Os estudos da psicologia cognitiva visam descobrir como o pensamento
funciona. Tais estudos abrangem, por exemplo, como especialistas resolvem
problemas em comparação com iniciantes, quão curta é a memória de curto
prazo e por que as pessoas mais incompetentes são as menos conscientes de
sua própria incompetência (Gudivada, 2016).

12
A disciplina da psicologia evolucionista explica os processos mentais
humanos usando a teoria da seleção. Mais especificamente, ela usa princípios
evolutivos para explicar adaptações psicológicas, como mudanças em nosso
pensamento para melhorar nossa sobrevivência. Os neurocientistas empregam
instrumentos de engenharia e métodos científicos para medir a atividade
cerebral em resposta a estímulos externos (Mcclelland; Ralph, 2015).
Por exemplo, técnicas de ressonância magnética funcional, tomografia de
emissão de pósitrons e tomografia computadorizada axial são usadas para
identificar regiões cerebrais específicas associadas a várias tarefas cognitivas.
Uma neurocam é uma câmera montada na cabeça que monitora as ondas
cerebrais. Quando pessoa que usa esse dispositivo olha para algo que causa
um pico na atividade cerebral, a atividade é registrada automaticamente. Esse
aparato é utilizando apenas em laboratórios de pesquisa (Gudivada, 2016).
A computação cognitiva emprega as teorias, métodos e ferramentas da
disciplina de computação para modelar tarefas cognitivas. Os meios para
representar e armazenar informações em um computador têm pouca ou
nenhuma semelhança com o cérebro humano (Gudivada, 2016).
As tecnologias que viabilizam os sistemas de computação cognitiva
incluem “IA, aprendizado de máquina, visão computacional, robótica,
reconhecimento e entendimento de idiomas escritos e falados, recuperação de
informações, Big Data, Internet das Coisas (IoT) e computação em nuvem”
(Gudivada, 2016, p. 6).
Os sistemas de computação cognitiva são fundamentalmente diferentes
dos sistemas de computação tradicionais. Os sistemas cognitivos são
adaptáveis, aprendem e evoluem ao longo do tempo e incorporam o contexto à
computação. Eles sentem seu ambiente, pensam e agem de forma autônoma e
lidam com informações incertas, ambíguas e incompletas.
O sistema Deep Blue, da IBM, que derrotou o campeão mundial de xadrez
Garry Kasparov em 1997, não é considerado um sistema de computação
cognitiva, pois usou uma pesquisa exaustiva no planejamento de seus
movimentos. Por outro lado, o IBM Watson, de 2011, é um sistema de
computação cognitiva. Ele usa “profundo entendimento da linguagem natural,
incorpora informações contextuais em sua tomada de decisão e raciocina com

13
dados incompletos e incertos”. Ele executa raciocínio espacial e temporal e pode
reconhecer padrões em texto em linguagem natural (Gudivada, 2016, p. 7).
Com rápidos avanços na ciência cognitiva e na ciência de dados, os
aplicativos de computação atuais incorporam graus variados de recursos
cognitivos. Por exemplo, as capacidades cognitivas permitem que carros
autônomos aprendam com experiências passadas e usem informações
contextuais para tomar decisões em tempo real. Já assistentes cognitivos, como
o Google Now, preveem e sugerem as próximas ações dependentes do contexto
(Gudivada, 2016).
Para traduzir o conteúdo das páginas da web para diferentes idiomas, as
tecnologias cognitivas alcançaram níveis de precisão sem precedentes. Avanços
transformadores no reconhecimento de fala e no entendimento do idioma são
usados para tarefas de tradução e compreensão de fala em tempo real, e já
temos equipamentos à venda com essa tecnologia embarcada. A IoT cognitiva
e as tecnologias de Big Data são usadas em cidades inteligentes para melhorar
a segurança pública e a eficiência das operações de infraestrutura (Wu et al.,
2014).

TEMA 5 – A COMPUTAÇÃO COGNITIVA E O IMPACTO NOS NOVOS


MODELOS DE NEGÓCIOS (A COMPUTAÇÃO COGNITIVA NAS
ORGANIZAÇÕES)

A computação cognitiva é a tecnologia que melhor se adapta à análise de


dados não estruturados (textos, imagens, fala), que representam 80% das
informações geradas e disponíveis hoje. Somente com o uso deste tipo de
tecnologia se torna possível converter dados não estruturados em informação
valiosa ou até mesmo em vantagem competitiva para as organizações (IBM,
2018).
Além dos dados das organizações, a computação cognitiva permite que
dados externos sejam incorporados em seu processo de tomada de decisão. Um
exemplo disso é a previsão do clima, que pode criar vantagem competitiva para
organizações do vestuário. Assim, a possibilidade de incorporar esses dados de
forma automatizada pode auxiliar a organização a tomar decisões mais ágeis,
aproveitando melhor situações atípicas (IBM, 2018).

14
Todavia, a quantidade de dados gerados exige um alto poder de
processamento para que esses padrões sejam identificados. Por isso, ainda há
a necessidade de evolução de hardware e popularização dos processadores
quânticos.
Ainda há resistência quanto ao uso de soluções cognitivas pelas
organizações, que muitas vezes pode estar associada às experiências do
passado. Podemos tomar como exemplo os assistentes de telefonia que exibiam
dificuldade na compreensão das solicitações e também limitação no conjunto de
respostas (IBM, 2018). Sendo assim, essa é uma das barreiras que a
computação cognitiva tem de lidar, junto às limitações de hardware e à evolução
de tecnologias comentadas no parágrafo anterior.
No entanto, diante dos imensos avanços nas tecnologias cognitivas,
principalmente nas áreas de reconhecimento de voz e imagem, essas barreiras
estão caindo. Segundo a IBM (2018), em diversos casos, incluindo Brasil e
América Latina, gestores das organizações têm buscado soluções de IA que os
ajudem a solucionar problemas específicos a fim de obter vantagem competitiva
e redução de trabalhadores em funções que podem ser automatizadas (IBM,
2018).
O fato é que a computação cognitiva se apresenta como uma tecnologia
com um grande poder para as organizações que estão dispostas a aprender e a
compreender seu uso e extrair benefícios para a organização.
Para Feldman (2019), podemos esperar que a computação cognitiva
ainda possa executar as seguintes tarefas com um alto índice de assertividade:

1) Revisar e evoluir automaticamente regras para tornar mais rápida a


adaptação;
2) Descobrir e melhorar boas práticas e processos de negócios;
3) Detectar padrões de comportamento;
4) Detectar anormalidades;
5) Identificar riscos;
6) E, principalmente, reduzir a carga de trabalho de agentes humanos,
automatizando os aspectos mais previsíveis do trabalho.

Os sistemas cognitivos podem ser percebidos como uma ferramenta que


deve complementar e aumentar as capacidades humanas e das organizações,
pela capacidade de apoiar o trabalho “homem + máquina” (IBM, 2018). Ao

15
congregar a tecnologia às necessidades do cotidiano das organizações e das
pessoas, torna-se possível criar novas tendências e com isso inovar, o que é um
agente propulsor dos negócios.
Portanto, devemos estar preparados para as tecnologias futuras e
necessitamos compreender como elas podem modificar nossa sociedade,
economia e o modo como as organizações atuam. A destruição criativa, como
disse Joseph Schumpeter, continua ativa e faz com que organizações e setores
consolidados busquem e criem aberturas para novos modelos de negócio com
a propulsão das tecnologias da computação cognitiva que podem transformar
estas organizações e setores.

TROCANDO IDEIAS

No decorrer desta aula, vimos sobre a ciência cognitiva e sua relação com
os modelos de redes neurais da IA. Aprendemos também sobre o Deep
Learning, que está sendo amplamente utilizado em soluções de IA para resolver
problemas de dados domínios. Visto que já temos a compreensão do
funcionamento da Deep Learning, faça uma busca na web para identificar quais
são os seus aspectos preponderantes — tanto positivos quanto negativos —
quando comparada à Machine Learning. Usando o fórum, compartilhe com seus
colegas esses aspectos, verifique os apontamentos dos colegas e diga se
concorda ou não, evidenciando o porquê.

NA PRÁTICA

1) Marque V para Verdadeiro e F para Falso. Quando Falso, aponte o que


estiver errado e traga informações para complementar.
a) A cognição é o processo pelo qual um sistema autônomo obtém
conhecimento e modifica seu comportamento por meio de pensamentos,
sentidos e experiências. ______________________________________
__________________________________________________________
b) O Resolvedor Geral de Problemas foi desenvolvido apenas para resolver
problemas de forma correta.____________________________________
__________________________________________________________

16
c) O processo de aprendizagem de uma Rede Neural é uma “caixa aberta”
que os pesquisadores podem identificar como ocorre cada uma das
etapas do raciocínio. _________________________________________
__________________________________________________________
d) A ciência cognitiva é uma área de estudo disciplinar, isto é não depende
e nem se correlaciona com nenhuma outra área para realizar seus
estudos e evoluir. ____________________________________________
__________________________________________________________
e) O Watson da IBM é um sistema de computação cognitiva. ___________
__________________________________________________________
2) Identifique na web duas aplicações que usam a Deep Learning para
melhorar a vida das pessoas e use a wiki para descrever essa aplicação,
indicando a área e o contexto pelo qual ela foi desenvolvida, seus
objetivos e quais são as contribuições para as pessoas desta aplicação.

FINALIZANDO

Nesta aula, buscamos compreender como a IA se desenvolveu por meio


da busca de simular o processo humano de raciocínio. No primeiro tópico,
buscamos entender o que é a cognição humana e como ela funciona.
Adentramos sob o nascimento do pensamento lógico desde a Grécia Antiga e
como esta impactou no surgimento dos primeiros sistemas de IA.
Após compreendermos um pouco sobre a cognição humana, vimos a
primeira tecnologia que buscou replicar a forma de raciocínio humano, as Redes
Neurais Artificias (RNAs). Também buscamos mostrar como seu funcionamento
se dá, quais são suas vantagens para organizações, de que modo podem ser
aplicadas e finalizamos apresentando quais são seus desafios para implantação
nas organizações.
Por fim, seguindo o contexto histórico, chegamos à área da computação
cognitiva, que surgiu com características interdisciplinares, envolvendo diversas
outras áreas em prol de compreender melhor o modelo de raciocínio humano.
Apesar de conseguir fazer com que uma máquina possa replicá-lo, vimos que,
por mais avanços que obtivemos nesta última década, ainda temos um caminho
árduo para percorrer e compreender a mente humana.

17
Na sequência, discutimos sobre os impactos da computação cognitiva nas
organizações e como esta é uma ferramenta que pode transformar o modo que
trabalhamos hoje, auxiliando as organizações a inovarem e terem vantagem
competitiva sob as demais. No entanto, tanto as Redes Neurais quanto a
computação cognitiva ainda possuem um árduo caminho para trilhar até
atingirem seus objetivos, que vêm desde a criação da IA, na busca de realizar
raciocínio lógico para solução de problemas complexos tal como o ser humano.

18
REFERÊNCIAS

BALDUZZI, D. Semantics, Representations and Grammars for Deep


Learning. arXiv preprint arXiv:1509.08627, 2015.

BRAGA, A. de P. Redes neurais artificiais: teoria e aplicações. Livros


Técnicos e Científicos, 2000.

CHIPMAN, S. (Ed.). The Oxford handbook of cognitive science. Oxford


University Press, 2016.

FELDMAN, S. Where Are We With Cognitive Computing Today? Part 1.


Disponível em: <https://cognitivecomputingconsortium.com/cognitive-
computing-todaypart-1/>. Acesso em: 1 nov. 2019.

FRANKLIN, S. et al. LIDA: A systems-level architecture for cognition, emotion,


and learning. IEEE Transactions on Autonomous Mental Development, v. 6,
n. 1, p. 19-41, 2013.

GOLDBERG, Y. A primer on neural network models for natural language


processing. Journal of Artificial Intelligence Research, v. 57, p. 345-420,
2016.

GUDIVADA, V. N. Cognitive computing: concepts, architectures, systems,


and applications. In: Handbook of statistics. Elsevier, 2016. p. 3-38.

HARPER, J. Maximizing neural networks with transfer learning. Disponível


em: <https://aibusiness.com/maximizing-neural-networks-with-transfer-
learning/>. Acesso em: 1 nov. 2019.

HAWKINS, J. et al. Biological and machine intelligence (bami). Initial online


release 0.4, 2016.

IBM. Visões: presente e futuro, Computação Cognitiva e Inteligência


Artificial. Disponível em: <https://www.ibm.com/blogs/services/br-
pt/2018/10/17/viso%CC%83es-presente-e-futuro-
computac%CC%A7a%CC%83o-cognitiva-e-intelige%CC%82ncia-artificial/>.
Acesso em: 1 nov. 2019.

MCCLELLAND, J. L.; RALPH, M. AL. Cognitive neuroscience. 2015.

NEISSER, U. Cognitive psychology: Classic edition. Psychology Press, 2014.

19
NEWELL, A; SIMON, H. A. GPS, a program that simulates human thought.
RAND CORP SANTA MONICA CALIF, 1961.

NORVIG, P.; RUSSELL, S. Inteligência Artificial. Elsevier Brasil, 2014.

PRIETO, A. et al. Neural networks: An overview of early research, current


frameworks and new challenges. Neurocomputing, v. 214, p. 242-268, 2016.

RAMANATHAN, S. 5 Challenges for Deep Learning. Disponível em:


<https://www.eetimes.com/5-challenges-for-deep-learning/>. Acesso em: 1 nov.
2019.

TORONTO. Artificial Neural Networks Technology. Disponível em:


<http://www2.psych.utoronto.ca/users/reingold/courses/ai/cache/neural3.html>.
Acesso em: 1 nov. 2019.

VERNON, D. Artificial cognitive systems: A primer. MIT Press, 2014.

WU, Q. et al. Cognitive internet of things: a new paradigm beyond connection.


IEEE Internet of Things Journal, v. 1, n. 2, p. 129-143, 2014.

20

Você também pode gostar