9 setembro 2016
A bolha artificial da “inteligência artificial” e o futuro da cibersegurança
Acredito que esse artigo recente no New York Times sobre o boom da “inteligência artificial” no Vale do Silício, colocou muita gente para pensar sobre o futuro próximo e distante da cibersegurança.
Imagino que perguntas como essa serão respondidas da seguinte forma :
- Para onde a fixação com a “IA” que existe apenas em obras de ficção nos levará? Quantos bilhões ainda serão investidos em empreitadas que na melhor das hipóteses inventarão o que foi inventado há décadas e na pior resultarão em produtos falaciosos engrandecidos por marketing?
- Quais são as oportunidades reais acerca do desenvolvimento de máquinas inteligentes dentro da cibersegurança?
- Qual será o papel dos especialistas nesse admirável mundo novo?
QUANDO CONVIVO COM ENTUSIASTAS DE IA, ENTUSIASTAS AQUI NO VALE, SINTO-ME UM ATEU EM UM RETIRO EVANGÉLICO.
Jerry Kaplan, cientista em computação, autor, futurista e empreendedor em série (fundador da Symantec).
O que está acontecendo no campo da “IA” se assemelha a uma bolha de sabão. Todos sabem o que acontece com bolhas de sabão quando ficam cada vez mais cheias: estouram.
Agora, sem passos ousados e investimentos arriscados um futuro fantástico nunca se tornará realidade. Mas o problema hoje é que em conjunto com essa onda de entusiasmo com IA (lembre-se que ela ainda não existe), startups começaram a aparecer.
Algumas startups? E o que tem de errado nisso?
O problema é que essas empresas estão atraindo milhões de dólares em investimentos ao pegar carona na onda de euforia ao redor do aprendizado de máquina fantasiado de “IA”. A questão é que o aprendizado de máquina está por aí há décadas: foi definido pela primeira vez em 1959, continuou nos anos 70, e deslanchou de vez nos anos 90 continuando assim até hoje! Atualmente, essa “nova tecnologia” é renomeada para “inteligência artificial”; adotando assim uma aura de ciência de ponta; essas possuem os catálogos mais lustrosos e campanhas de marketing extremamente incríveis. Tudo isso trabalha em torno da propensão humana de acreditar em milagres, e em teorias da conspiração ao redor das chamadas tecnologias tradicionais. Infelizmente, o setor de cibersegurança não escapou dessa nova bolha da “IA”.
Aqui na cibersegurança, novos produtos “revolucionários” são lançados e como mágica resolvem todo e qualquer problema de segurança e protege todo mundo e tudo de cada ciberameaça por aí de uma vez só. Essas empresas não têm qualquer limite na hora de apresentar informações, visando manipular a opinião pública e garantir o entendimento errôneo de uma situação real.
Enquanto isso, na verdade, não há nada de revolucionário nessas tecnologias pioneiras. No lugar, observa-se tecnologias tão datadas quanto o motor a vapor! Mas quem está prestando atenção nisso afinal? Mais sobre essa situação aqui
Algumas dessas startups chegaram ao ponto de possuir um IPO. Essas empreitadas têm um único objetivo capitalista de se dar bem, caso comercializem rapidamente; entretanto, em longo prazo não se sustentam e causam decepção por conta de seu produto. Um negócio fundado em marketing falacioso não paga dividendos, e o declínio rápido no preço depois do pico é inevitável. Enquanto isso, aquela estrutura de marketing tem um custo e não é nada barato.
Vamos voltar um pouco nesse ponto.
Capitalismo de risco não tem a palavra risco por nada. Um bom capitalista de risco é aquele que sabe onde investir seu capital – e quanto dele investir – de modo a retornar com um bom lucro em um tempo de retorno viável. Todavia, existe uma nuance no que diz respeito a “IA”: Nenhuma campanha de cibersegurança baseada em IA teve sucesso ainda! Bem, então por que um empresário de risco colocaria seu dinheiro nisso? Boa pergunta.
O principal objetivo dos modelos de negócio das startups do Vale do Silício (não todas, existem exceções) não inclui participar de pesquisas sérias e caras que resultem em tecnologias/produtos úteis que venderão bem. A ideia é criar bolhas: atrair investidores, vender ações rapidamente com preço baseado em “perspectiva de lucros futuros” e aí… lá vem a bagunça (grandes perdas sofridas) que serão problema de outra pessoa. E ainda melhora? A revenda apenas PIORA esses modelos!
NÃO É SOBRE O QUANTO VOCÊ GANHA. É SOBRE QUANTO VOCÊ VALE. E QUEM VALE MAIS? EMPRESAS QUE PERDEM DINHEIRO.
Eis um modelo de negócio típico, comprimido em 75 segundos da série de TV Sillicon Valley (apesar de absurdo e engraçado, é baseado em realidade!):
As bolhas de IA de alguma forma são relacionadas às bolhas imobiliárias de 2008 nos EUA, cenário que se tornou uma bola de neve que rapidamente explodiu em uma crise global. A pirâmide do investimento em subprodutos baseados em hipotecas subprime funcionou para muita gente: milhões de pessoas começaram a fraquejar, e os buracos foram preenchidos com dinheiro de impostos, objetivando evitar o completo apocalipse financeiro. Não está sabendo do escândalo da década? Assista o filme “A Grande Aposta”.
Como se essa similaridade já não fosse ruim o suficiente, a bolha da IA contém outro problema – difamar o aprendizado de máquina: um dos subcampos da cibersegurança mais promissores.
O que há de tão “perigoso” nisso? Bem, é graças ao aprendizado de máquina que a humanidade não se afogou em um volume gigante de dados, o qual aumentou na ordem de zilhões nas últimas décadas.
Por exemplo, a quantidade de programas maliciosos nos últimos anos aumentou em escala de milhar: no começo do século, analisamos diariamente por volta de 300 tipos distintos de malware; agora, esse dado possui mais três zeros no fim. E por quantas vezes aumentou o número de analistas? Quatro. Então como conseguimos acompanhar? Duas palavras: aprendizado de máquina.
Hoje, 99,9% dos ataques que detectamos são rastreados por nossos sistemas automáticos. Parece que os analistas não têm nada para fazer né? Muito pelo contrário. Seus esforços estão concentrados na melhoria desses sistemas e no desenvolvimento de novos.
Por exemplo, temos especialistas dedicados a investigação de ciberataques realmente complexos, que transferem posteriormente esse novo conhecimento e habilidade para os sistemas automatizados. Existem ainda especialistas em ciências de dados que experimentam com modelos e métodos diferentes de aprendizado de máquina.
Diferentemente das startups supracitadas, protegemos usuários por meio de infraestruturas gigantescas de nuvem, capazes de resolver tarefas complexas muito mais rápido e efetivamente. E sim, é por isso que aplicamos diversos modelos distintos de aprendizado de máquina.
Os únicos ciberataques que investigamos manualmente são os mais bizarros e complexos que encontramos. Ainda assim, mesmo com as máquinas no controle de quase todo, ainda temos problemas em encontrar equipe especializada. Ainda há o fato de que precisamos de exigências cada vez mais variadas em analistas da KL.
Cedo ou tarde a falácia por trás “do intelecto artificial ser a salvação do mundo” acabará eventualmente. Especialistas finalmente terão permissão para testar os produtos ditos IA, os clientes entenderão que foram roubados, e investidores perderão o interesse. Mas como o aprendizado de máquina se desenvolve?
O VALE DO SILÍCIO JÁ ENCAROU PROBLEMAS COM I.A. FALSAS ANTES. DURANTE OS ANOS 80, UMA GERAÇÃO PREMATURA DE EMPREENDEDORES TAMBÉM ACREDITAVA QUE INTELIGÊNCIA ARTIFICIAL ERA O ONDA DO FUTURO. O QUE LEVOU A UMA ENXURRADA DE START-UPS. SEUS PRODUTOS OFERECIAM VALOR AO PEQUENO NEGÓCIO, O ENTUSIASMO COMERCIAL TERMINAVA EM DECEPÇÃO, LEVANDO A UM PERÍODO CONHECIDO COMO “INVERNO I.A.”
John Markoff, New York Times
As consequências da explosão da bolha da IA se estenderão a todos os campos similares. “Aprendizado de Máquina? Redes neurais? Análise cognitiva? – Mais palavras bonitas que nem inteligência artificial? Não obrigado, quero nem saber. Na verdade quero distância!”
E olha que piora: a maldição da bolha da IA suprimirá o interesse em tecnologias promissoras por muitos anos, que nem nos anos 80.
Ainda assim, fabricantes estáveis continuarão a investir em tecnologias inteligentes. Por exemplo, introduzimos o boosting e a árvore de decisões para detectar ataques direcionados e proteção proativa contra ameaças futuras (sim, ameaças que não existem).
Uma área promissora de desenvolvimento é aumentar a complexidade dos cenários correlacionados a eventos em diversos níveis de infraestrutura e análises de máquina do ambiente de dados para detectar os ciberataques mais complexos de maneira confiável e precisa. Já programamos essas características na nossa plataforma KATA e estamos ansiosos para desenvolver mais.
Mas como empresas honestas de aprendizado de máquina sucederão? Infelizmente, o abuso da ideia da IA apenas atrasará o desenvolvimento.
Tenha em mente que o progresso não para: ele continuará independente do ritmo lento.
A humanidade sem dúvida progredirá na direção da automação de absolutamente tudo sob o sol – até nos pormenores dos processos cotidianos. E não será apenas automação, mas interação adaptativa entre homem e máquina – pautados em algoritmos de aprendizado de máquina avançados. Estamos testemunhando essa interação adaptativa, e a velocidade na qual se espalha em aplicações diversas chega a assustar.
Hackers Make the First-Ever Ransomware for Smart Thermostats https://t.co/pg764iuMkY by @lorenzoFB pic.twitter.com/AUzm9Cbjhh
— Eugene Kaspersky (@e_kaspersky) August 8, 2016
O campo da cibersegurança também passará por automação constante.
Por exemplo, já temos uma solução para embutir segurança nos paradigmas de “cidades inteligentes” (incluindo aspectos robóticos como gerenciamento de tráfego automático) para controle seguro de infraestruturas críticas. O déficit de especialistas irá se tornar ainda mais agudo, nem tanto por conta da disseminação de tecnologias, mas por conta das demandas cada vez maiores de habilidades específicas. Sistemas de aprendizado de máquina para cibersegurança requerem conhecimento enciclopédico e habilidades específicas extremamente refinadas em diversos campos (incluindo big data, investigação criminal computacional, e programação de sistemas aplicados). Obter todo esse conhecimento específico e amplo em uma pessoa é algo raro: é isso que os torna especialistas exclusivos e de primeira.
Afinal quem estará encarregado do futuro nesse novo mundo? O homem ainda controlará os robôs ou veremos o contrário?
Em 1999, Raymond Kurzweil apresentou uma teoria que dizia respeito ao intelecto simbiótico (embora outros tenham tido ideias similares antes): a fusão de homem e máquina – um organismo cibernético que combina inteligência artificial de humanos com o poder de processamento informacional de supercomputadores (“inteligência maqui-humana”). Todavia isso não é ficção científica, já está ocorrendo. Seu desenvolvimento contínuo, em minha opinião, é pouco provável, mas sem dúvida benéfico no que diz respeito ao progresso humano.
Porém, irá esse desenvolvimento posterior da fusão de homem com máquinas avançar a ponto de atingir uma singularidade tecnológica? Os homens perderão a habilidade de se manter a par do que está ocorrendo, ao passo que as máquinas eventualmente tomarão o controle do mundo de uma vez por todas?
O cerne de máquinas de inteligência artificial é a habilidade de desenvolvimento contínuo e se aperfeiçoar infinitamente sem a intervenção do homem – uma habilidade que pode crescer e crescer até o ponto eventual em que cruzar os limites de seus algoritmos. Em outras palavras, máquinas com IA real são uma nova forma de intelecto. E esse dia distante – e teoricamente provável – da excedência dos limites impostos por algoritmos será o sinal do fim do mundo como conhecemos. Para o benefício da humanidade, segundo as leis da robótica, as máquinas poderiam nos livrar do sofrimento mental e do fardo da existência.
IA: UMA GRANDE DESCOBERTA EM CIBERSEGURANÇA OU UMA TENDÊNCIA DE MARKETING? @E_KASPERSKY ESTOURA A BOLHA DA IA E EXALTA O APRENDIZADO DE MÁQUINA #AI_OIL
Ou… talvez um programador – como sempre acontece – deixará para trás alguns bugs no código? Vamos ver e esperar…