Saltar para o conteúdo

Computação cognitiva

Origem: Wikipédia, a enciclopédia livre.

A computação cognitiva (CC) é a utilização da inteligência computacional (IC) para auxiliar na tomada de decisão humana, caracterizada por capacidades não-supervisionadas de aprendizado e interação em tempo real. Calcada na IA e no processamento de sinais, os sistemas de CC abrangem aprendizado de máquina, inferência automatizada, processamento de linguagem natural, reconhecimento de fala, visão computacional (e.g. reconhecimento de objetos), e HCI.[1][2]

Características gerais

[editar | editar código-fonte]

Há dissenso na definição de CC, seja na academia ou na indústria, mas em geral o termo se refere à hardware ou software inspirado no cérebro ou mente humana (um traço de computação natural característico da IC) para suporte à tomada de decisão realizada por humanos. Neste sentido, a CC se aproxima especialmente da cognição humana, sendo modelada pelo e modelando o comportamento humano através de estimulos potencialmente também utilizados por humanos (e.g. processamento de espectro audível e visível). As aplicações reunem análise de dados com interfaces adaptativas de usuário (adaptive user interface, AUI) para especialização em audiências e contextos e buscam afetividade e influência por projeto (design). [1][3][4] [5][6][7][8][9][10] (2004) e ajudam a aperfeiçoar a tomada de decisão humana.[11]

Algumas características de CCs:

Analítica cognitiva

[editar | editar código-fonte]

Plataformas de CC são tipicamente especializadas em big data, i.e. na análise/mineração de grandes quantidades de dados não estruturados. É característica da IC o aprendizado não-supervisionado (i.e. ou com ênfase em, ou semi-estruturado), permitindo que documentos de texto, áudio, imagem, video, muitas vezes formando estruturas de dados elaboradas como na análise de redes sociais, sejam utilizados sem etiquetação prévia. Esta não-necessidade de etiquetação é apontada como a principal vantagem da Analítica Cognitiva (AC) sobre métodos tradicionais de big data.[14][15]

Outras características da AC incluem:

A analítica cognitiva pode interfacear com o usuário através da analítica audiovisual para saída (entrada para o sistema-usuário), processamento de sinais para entrada (saída para o sistema-usuário), e inteligência computacional (IC) para análise e tomada de decisão.[17][18][19]

A lida com sistemas reais usualmente implica na lida com sistemas complexos, i.e. constituídos de diversas partes que, em conjunto, apresentam comportamento emergente. Sistemas complexos, em especial as redes complexas, tendem a apresentar distribuições sem escala (também 'livres de escala' ou 'de escala livre'). Há muitas outras não-linearidades, transições de fase, e clusterizaçòes pouco intuitivas, fractalidades, propriedades caóticas, em sistemas complexos, sejam eles livres ou não de escala (i.e. apresentando ou não uma lei de potência na distribuição de conectividade).[20][21]

A teoria promovida pelo SFI (o Santa Fe Institute promove a pesquisa em complexidade desde a década de 1980) assume que um sistema complexo possui definições não consensuais. Que, são constituídos de diversas partes e apresentam comportamento emergente, e possuem uma combinação destas características: comportamento adaptativo, processam informação, podem se reproduzir, são integrados a outros sistemas complexos, é integrado em si. Veja a nota lúdica sobre IC para uma reflexão tecnológica e filosófica. Neste sentido, no contexto atual (março, 2018), o big data encontra a computação cognitiva, e chega ao nosso cotidiano via a IoT, de forma a evidenciar, reforçar, erigir, ou destruir sistemas complexos.[22]

Computação natural

[editar | editar código-fonte]

A computação natural contribui para a CC principalmente com os algoritmos bioinspirados capazes de aprendizado e predição superior ou complementar à inferência bayesiana, Possuem uma valoração (de mercado, conceitual, acadêmica, artística) inerente à transdisciplinaridade e trato de conceitos como vida e inteligência.[23]

Inferência bayesiana (IB)

[editar | editar código-fonte]

A IB fornece baselines informativas e com resultados competitítveis para o reconhecimento de padrões e para a IC em geral (inclusive de computação natural. Ou seja, são fundamentais para referência na interpretação da IC aplicada na CC, e são utilizadas na prática para aprendizado e tarefas como classificação e regressão, em casos supervisionados e não-supervisionados. A IB é canônica na análise de dados (observação de fenômenos reais) e na tomada de decisão subsequente e apropriada. Complementam, monitoram, dão suporte, à computação natural na otimização

Web semântica

[editar | editar código-fonte]

Fornece os protocolos, emitidos como recomendações pela W3C, para dados ligados (RDF), com ontologias (OWL) e vocabularios (SKOS)[24][25][26]:

  • permitem a utilização de diversas fontes (interoperatividade de protocolo através de namespaces e RDF), fornecendo contexto de big data.
  • bancos de conhecimento ligado humano são usados para obter contexto por muitos aplicativos de CC.[27]
  • Os conceitos são mal definidos, e imprecisão semântica é canonicamente tratada com lógica difusa na inteligência computacional.

Transparência pessoal e coletiva

[editar | editar código-fonte]

A transparência pessoal advoca a abertura de nossos sensores (e.g. dos celulares) para acesso público, e que a privacidade seja alocada para ocasiões específicas, não para o modus operandi padrão. Por exemplo, pode-se deixar o áudio, capturado por um microfone arbitrário, em streaming 100% do tempo para audição via Webrádio gratuita online. Faz-se necessária a identificação de eventos de interesse dada a quantidade de dados pouco informativos. É também possível a localização dos eventos, especialmente se houver dois ou mais microfones em um mesmo sistema. Estes paradigmas de transparência pessoal foram sugeridos para cargos de responsabilidade, como políticos, e tem encontrado também respaldo na sociedade civil para compartilhar e documentar processos, de forma a monitorar os próprios esforços, trabalhar em equipe de forma assíncrona e distribuída geograficamente, comprovar dedicações para academia e indústria.[28] Outras aplicações da transparência pessoal já pode ser compreendida como transparência coletiva: câmeras e microfones abertos e publicamente acessíveis online, ao vivo e por histórico, nas instâncias publicas, principalmente as de maior responsabilidade. A segurança é um dos principais argumentos para a transparência pessoal e transparência coletiva, já que desencoraja ameaças e achocamento.[29][30][31] A CC é crucial para tais transparências para permitir análise ou mesmo a navegação do big data resultante.

Cidades inteligentes

[editar | editar código-fonte]

A CC é componente das cidades inteligentes, fornecendo análítica cognitiva e tomada de decisão com aspectos não-supervisionados e em tempo real, com resultados experimentais ou de indicadores sociais na distribuição e economia de recursors e na qualidade de vida em geral.

Referências

  1. a b Kelly III, Dr. John (2015). «Computing, cognition and the future of knowing» (PDF). IBM Research: Cognitive Computing. IBM Corporation. Consultado em 9 de fevereiro de 2016 
  2. Augmented intelligence, helping humans make smarter decisions. Hewlett Packard Enterprise. http://h20195.www2.hpe.com/V2/GetPDF.aspx/4AA6-4478ENW.pdf
  3. «IBM Research: Cognitive Computing» 
  4. «Cognitive Computing» 
  5. «Hewlett Packard Labs» 
  6. Terdiman, Daniel (2014) .IBM's TrueNorth processor mimics the human brain.http://www.cnet.com/news/ibms-truenorth-processor-mimics-the-human-brain/
  7. Knight, Shawn (2011). IBM unveils cognitive computing chips that mimic human brain TechSpot: August 18, 2011, 12:00 PM
  8. Hamill, Jasper (2013). Cognitive computing: IBM unveils software for its brain-like SyNAPSE chips The Register: August 8, 2013
  9. Denning. P.J. (2014). «Surfing Toward the Future». Communications of the ACM. 57 (3): 26–29. doi:10.1145/2566967 
  10. Dr. Lars Ludwig (2013). «Extended Artificial Memory. Toward an integral cognitive theory of memory and technology.» (pdf). Technical University of Kaiserslautern. Consultado em 7 de fevereiro de 2017 
  11. «Research at HP Labs» 
  12. Ferrucci, D. et al. (2010) Building Watson: an overview of the DeepQA Project. Association for the Advancement of Artificial Intelligence, Fall 2010, 59–79.
  13. Deanfelis, Stephen (2014). Will 2014 Be the Year You Fall in Love With Cognitive Computing? Wired: 2014-04-21
  14. «Cognitive analytics - The three-minute guide» (PDF). 2014. Consultado em 18 de agosto de 2017 
  15. «What is cognitive analytics? - Quora». www.quora.com (em inglês). Consultado em 18 de agosto de 2017 
  16. Descrição dos bots utilizados no Laboratório Macambira, 2011, disponível em:
  17. AAVO
  18. Trabalho de referência sobre HCI e visualização
  19. Oppeheim, Signal processing
  20. Fabbri, Renato, et al. "Temporal stability in human interaction networks." Physica A: Statistical Mechanics and its Applications 486 (2017): 92-105.
  21. Newman, Mark. Networks: an introduction. Oxford university press, 2010.
  22. MOOC sobre complexidade, Santa Fe Institute, 2018
  23. CASTRO, L. N. Fundamentals of Natural Computing: Basic Concepts, Algorithms, and Applications, CRC Press, 2006.
  24. Tom Heath and Christian Bizer (2011) Linked Data: Evolving the Web into a Global Data Space (1st edition). Synthesis Lectures on the Semantic Web: Theory and Technology, 1:1, 1-136. Morgan & Claypool.
  25. Allemang, D., & Hendler, J. (2011). Semantic web for the working ontologist: effective modeling in RDFS and OWL. Elsevier.
  26. https://arxiv.org/abs/1710.09952
  27. Wolfram Alpha
  28. https://arxiv.org/abs/1711.04612
  29. Transparência hacker
  30. Futuros imaginários
  31. Carta democracia direta digital, versões um, dois, e mínima. Escritas pela sociedade civil e com autoria anônima (e coletiva)