Usando a Internet das Coisas como uma Bola de Cristal

Acidentes e desastres são muitas vezes inevitáveis, não importa o ramo da indústria - quer seja uma falha em um equipamento, um grande evento climático, um corte de energia, ou alguma outra crise que afete a continuidade do negócio, o fator “inesperado” pode ocorrer a qualquer dia

iot 1 temprorio

Alexsandro Labbate (*)

Uma vez que não é ainda possível antever esses contratempos, podemos ao menos ser proativos na manutenção da saúde dos equipamentos. Avanços tecnológicos associados à Internet das Coisas (IoT) e Data Analytics permitem às organizações de serviços prever e antecipar problemas, minimizando - ou mesmo evitando - o impacto sentido pelos clientes quando um desastre eventualmente os atingir.

No Brasil, a inovação possibilitada pela IoT já pode ser verificada em muitos setores. De acordo com um estudo da Cisco, essa tecnologia garante uma economia de até 40% nos custos gerais da indústria, pois quanto mais uma empresa consegue sensorizar a produção, menor é o seu custo. Outro grande fator a alavancar a evolução da nova tecnologia é o Plano Nacional de IoT, elaborado pelo Banco Nacional de Desenvolvimento Econômico e Social (BNDES) e pelo Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC). O plano prevê a criação de novos programas de investimento do BNDES para incentivar novos negócios na área industrial, uma vez que as indústrias de base possuem alta capacidade de desenvolvimento e são responsáveis por grande parte do PIB nacional.

Embora possa parecer simples, monitorar milhares ou mesmo milhões de equipamentos e identificar erros antes deles ocorrerem é um desafio que pode se tornar avassalador rapidamente. Para ajudar a simplificar o processo, é importante dividi-lo em duas fases distintas: coleta e análise de dados.

Internet das Coisas na Coleta de Dados: Entendendo qual informação importa
Os sensores IoT permitem que grandes volumes de dados sejam coletados e armazenados, fornecendo às empresas informações sobre saúde, desempenho, ciclo de vida de peças e falhas dos equipamentos. Cada unidade pode gerar centenas de milhares de pontos de dados a cada minuto. O desafio neste estágio é descobrir como organizar e priorizar esse enorme volume de dados. Analisar cada uma das informações não é viável, pois além de implicar em um uso ineficiente dos recursos, também muitos dos dados coletados possuem pouco valor na determinação da saúde dos ativos.

As empresas precisam aprender quais dados devem priorizar para que possam identificar mais rapidamente as necessidades de manutenção. Por exemplo, um provedor de telecomunicações que monitora uma torre de celular pode estar rastreando o volume de chamadas recebidas através dessa torre específica, mas o volume de chamadas não é indicativo do desempenho da torre. No entanto, se a empresa de telecom for alertada para um aumento nas chamadas descartadas associadas a essa torre, ela pode ter a oportunidade de identificar e corrigir um problema que possa estar ocorrendo, antecipadamente, antes que ele assuma maiores proporções. Agora, considere uma grande tempestade que estima-se irá atingir a região onde esta torre está localizada – nesta circunstância, ser capaz de reparar e resolver um eventual problema antes da chegada da tempestade, minimiza os esforços de manutenção diante desse desastre climático.

Internet das Coisas na Análise de Dados: Estabelecendo indicadores de manutenção
Uma vez que os dados são coletados e as métricas de monitoramento são definidas, as análises são aplicadas para converter os dados em informações úteis. A análise do histórico de dados, particularmente em torno de falhas de equipamentos e atividades de serviços anteriores, permite às empresas de serviços identificarem padrões que possam indicar um erro futuro.

Por exemplo, para uma empresa de serviços públicos, a temperatura é um dos parâmetros mais medidos em uma usina, pois o superaquecimento pode causar sérios danos ao equipamento e pode representar um perigo aos profissionais que trabalham em sua manutenção. Ao analisar o histórico de atividades de manutenção e dos padrões nas mudanças de temperatura, as companhias têm a visão necessária para programar a manutenção preventiva quando a temperatura aumenta para níveis alarmantes já registrados anteriormente.

Estamos vendo mais e mais aplicações da tecnologia IoT na indústria de serviços, com sensores conectando dispositivos e equipamentos. Até mesmo academias de ginástica começaram a conectar seus equipamentos para evitar máquinas quebradas e usuários insatisfeitos. Contudo, quanto maior conectividade maior a responsabilidade; as organizações devem aproveitar essas capacidades aprimoradas para a transição de programas de serviço reativos para proativos, para prever falhas antes que estas ocorram - em última análise, manter a satisfação do cliente é hoje a prioridade número um dos negócios.

(*) É Diretor Global de Marketing da ClickSoftware, líder no fornecimento de soluções para a gestão automatizada e otimização da força de trabalho e serviços em campo.

Exposição de falhas dos gigantes da tecnologia continuará em 2018, avalia especialista

detalhe-encontros-SI-TI-default temprorio

O ano de 2018 já começou a todo o vapor no que tange ao tema segurança cibernética. Vulnerabilidades foram descobertas em todos os processadores utilizados no planeta. Profissionais de segurança revelaram a existência de duas falhas gravíssimas de segurança, que afetam inúmeros processadores fabricados ou que embarcam tecnologias da Intel, AMD e ARM nos últimos 20 anos. As falhas foram identificadas como Meltdown e Spectre
"O ano mudou, mas o panorama continua o mesmo", avalia Bruno Prado, especialista em segurança digital e CEO da UPX Technologies, empresa especializada no combate e prevenção a ciberataques. "O ano de 2017 foi marcado por grandes ataques em massa que afetaram o mundo inteiro e deixaram as empresas em alerta com ameaças como o WannaCry – ransomware que sequestrou os dados de organizações em todos os continentes", relembra o executivo.
Em 2018, segundo estimativa da consultoria Gartner, o investimento global na segurança da informação deverá ser de US$ 93 bilhões, o que representa um aumento de 12% em relação ao ano passado. "Mesmo com as altas cifras, o setor se mostra vulnerável e coloca em risco os dados dos usuários, sejam eles empresariais ou não, por meio de falhas como a Meltdown e a Spectre", relata Prado.
As duas falhas foram capazes de atingir os principais fabricantes de processadores, Intel, AMD e ARM, envolvendo sistemas operacionais da Microsoft, Apple e Google. O primeiro, Meltdown, é uma lacuna de segurança em hardware de chips Intel que explora a comunicação entre os núcleos de processamento para interceptar as informações que ali trafegam. Essa brecha não possibilita que ocorram alterações ou a exclusão dos dados, porém coloca em risco a integridade de itens tais como nomes de usuário, senha e informações bancárias.
O Spectre, por sua vez, é uma vulnerabilidade capaz de atacar diversos modelos e marcas de processadores. Pode ser executado por meio dos navegadores web com a execução de um código em Java, o que coloca em risco os usuários de todos os tipos de dispositivos que possuam acesso à rede mundial de computadores.
Além dessa falha identificada nos processadores, Prado faz alerta para outras ameaças. Uma delas, diz o especialista, é um botnet chamado Reaper, que tem se propagado rapidamente e já infecta diversas organizações por meio de dispositivos IoT (Internet das Coisas), computadores e roteadores desprotegidos. "A qualquer momento, poderá haver um ataque de negação de serviço (DDoS) em larga escala, provavelmente o maior já registrado, superando o Mirai, que tirou do ar diversos servidores em 2016", alerta o especialista.
Assim como na maioria dos ataques, diz Prado os danos são provenientes de atrasos em atualizações. "Ao utilizar softwares desatualizados, os usuários se expõem aos riscos de brechas de segurança, que são aproveitadas pelos cibercriminosos como forma de abrir caminho para o roubo de informações", alerta ele.
As empresas, por sua vez, são testadas em tempo integral por criminosos virtuais, que buscam por oportunidades de realizar malfeitos. "Para equilibrar a balança, é fundamental atuar em conjunto com um PenTest – método cuja finalidade é avaliar a segurança de um sistema de computador, tanto desktop quanto mobile, seus softwares, redes, sites, servidores, aplicativos e até hardwares, simulando um ataque malicioso para identificar possíveis vulnerabilidades nos sistemas", afirma o especialista.
Desse modo, afirma Prado, os gestores ficam cientes de quais são os pontos frágeis que podem ser explorados e conseguem realizar um investimento mais preciso e garantir sua proteção contra toda a diversidade de ameaças presentes na rede, mitigando a exposição e, consequentemente, os riscos corporativos.
Mesmo que o tenha ano começado movimentado na segurança digital, o especialista em segurança digital, diz que há pontos positivos nesse cenário. "O início de um novo ciclo é o melhor momento para que haja a conscientização, planejamento e execução de ações em prol da proteção das informações", diz Prado. "Com os riscos, exposições e recuperações de 2017, é essencial que os gestores aumentem o foco e a importância na defesa de suas instituições, afinal, os criminosos e as ameaças não esperam", complementa.

Não existe neutralidade na rede

Piero Contezini (*)

Lembro até hoje do primeiro contato que tive com a internet: foi em 1992, por meio de um CD da AOL, que fornecia acesso via telefone.

Era uma chamada para os EUA e cada minuto conectado custava alguns dólares, mas foi amor à primeira vista. Usei esse recurso até conseguir meu próprio acesso, mais barato, e fiquei fascinado com a idéia de obter informação a partir de um único local. Eu já usava BBS, tecnologia que conectava o computador a um serviço com informações limitadas e selecionadas — como softwares e textos — mas isso era bem diferente.
Quando tive acesso à rede, os provedores vendiam contas de 30 horas de navegação por mês, a R$ 30. Usei as primeiras 24 horas de acesso baixando o que anos depois viria a se tornar o sistema operacional dominante da web, um tal de Linux, ainda sem suporte à conexão. E a curiosidade por usar uma plataforma diferente rendeu meu primeiro emprego como administrador de provedor de internet aos 16 anos. Nesse trabalho eu comecei a encontrar um problema: existiam usuários que trafegavam cerca de 20 a 30 vezes mais dados que os outros, enquanto muitos consumiam um volume baixíssimo. Mas todos pagavam exatamente o mesmo valor pela rede.
Como o custo de conexão era bem alto e não existia maneira economicamente viável de disponibilizar a velocidade total que os usuários necessitavam para seu uso, nós éramos obrigados a usar uma série de artifícios para melhorar a experiência de todos — desde “cachear” as páginas de internet mais usadas, até configurar para que serviços que usassem muita banda ficassem um pouco mais lentos em prol de outros, mais usados. É, em 1996 nós já feríamos os princípios da neutralidade da rede.
Na prática, a internet no mundo é lenta porque nós acreditamos na ideia do buffet livre, como se ela fosse uma tomada onde você pluga seus dispositivos e consome tudo de graça, sem pagar a conta. Isso é um pensamento fundamentalmente errado, pois o provedor tem um custo variável diretamente proporcional à quantidade de dados trafegados, apesar de cobrar uma mensalidade fixa pelo serviço livre. Sabe por que a sua super conexão de 50Mb/s oferece, durante a maior parte do dia, só 10Mb/s? Porque um gamer sem noção está ocupando a rede enquanto você só quer o seu Netflix quando chega em casa.
O que o fim da neutralidade da rede discute é a possibilidade de se manter esse pseudo-socialismo cibernético por meio de acordos comerciais especiais com empresas interessadas em subsidiar o acesso, para ter um pouco mais de velocidade do que o normal. Ele não vai deixar o tráfego digital mais lento, porque a velocidade já é reduzida; a internet está no seu limite desde que nasceu, e o que os provedores fazem é priorizar o que as pessoas mais usam para ficar tornar a experiência do usuário “menos pior”.
Num mundo ideal, os provedores dariam velocidade ilimitada e os clientes pagariam por gigabyte transferido. Assim as empresas seriam incentivadas a oferecer a melhor rede possível a qualquer momento, ao mesmo tempo em que se o usuário não consumir, não paga nada (o problema seriam as assinaturas e médias de consumo, que precisam acabar). Mas ninguém quer discutir isso. Precisamos aceitar que a neutralidade nunca existiu e usar esse entendimento a favor do usuário.

(*) É empreendedor, cofundador e CEO da Asaas
(e-mail: O endereço de e-mail address está sendo protegido de spambots. Você precisa ativar o JavaScript enabled para vê-lo.)

 
 
 
 
Outras Matérias sobre Tecnologia

 

Mais Lidas