Em tempos de recessão econômica, inflação em alta, e consequentemente uma diminuição substancial no poder de compra dos consumidores, um mau atendimento pode gerar a perda de clientes, de credibilidade e lucratividade da empresa. Para superar o cenário de crise e ampliar as vendas, contar com um time de profissionais comprometidos e dispostos a oferecer um bom atendimento aos clientes torna-se uma prática obrigatória.
Listei abaixo alguns pontos que considero importantes e que precisam ser incentivados pelos gestores para encorajarem seus profissionais a construírem equipes de atendimento de sucesso.
Cordialidade – Seja educado em qualquer situação. Sabe aquela frase “a primeira impressão é a que fica”, pois bem, tratar o cliente de forma ríspida poderá comprometer o atendimento, a imagem da empresa perante o mercado, e também as vendas. Mostre empenho no atendimento, caso tenha dúvidas sobre sua postura, lembre-se de atender da mesma forma que gostaria de ser tratado se estivesse do outro lado.
Empatia – Coloque-se no lugar do cliente para entender suas necessidades. Faça perguntas, investigue e faça o levantamento do problema pensando sempre em como você resolveria se estivesse no lugar dele e também no impacto que este problema está causando no negócio. Além de criar uma empatia com o cliente, isso tornará o atendimento mais assertivo e rápido.
Resiliência – Cada cliente possui um tipo de perfil, no entanto, saber lidar com os problemas durante um atendimento, superar obstáculos ou resistir à pressão de situações adversas sem entrar em conflito, deve ser algumas das boas práticas de quem presta serviços aos clientes.
Conhecimento técnico – Determinadas áreas exigem que o funcionário tenha conhecimentos técnicos para argumentar sobre um serviço/produto. Por isso, estimule práticas de aprendizado constantes na empresa, não só sobre o produto, mas também quanto ao perfil do cliente e as habilidades necessárias para o analista. Conhecer o cliente, suas reais necessidades e como lidar com os diferentes perfis de pessoas, com certeza potencializarão os atendimentos e as vendas.
Acompanhamento gerencial – Uma venda não é finalizada quando o produto é recebido ou um serviço é entregue, pelo contrário. Uma venda deve ser acompanhada de forma gerencial, desde a prospecção e a concretização da venda até o pós-vendas, só dessa forma o cliente se sentirá importante a ponto de recomendar a empresa para outros parceiros.
No caso de empresas de serviços, gere indicadores que possibilite este acompanhamento gerencial e apresente os itens ofensores para serem trabalhados em primeiro plano. Se for possível, faça visitas periódicas, deixe os seus analistas conhecerem a realidade do seu cliente, isso garantirá não só uma visão holística do negócio, mas um conhecimento dos processos implantados, uma análise mais rápida e abrangente dos fatores que precisam ser reparados, além de exercitar a empatia e perceberem a urgência e criticidade das solicitações. Por fim, monitore os seus atendimentos com feedbacks constantes, garantindo assim a evolução de sua equipe sempre em busca de qualidade e satisfação.
Independente da realidade econômica, diante dos fatores que apresentei, a equipe de atendimento ao cliente deve estar pronta para se reinventar todos os dias. O modelo de hoje pode não ter o mesmo efeito amanhã, entretanto, se for realizado com vontade e atitude, pode contribuir para a melhoria nos processos e na organização de forma geral.
A Lenovo anunciou que deve cortar cerca de 1.000 vagas na sua força de trabalho da unidade Motorola Mobility, que foi adquirida em 2014 do Google. O negócio de celulares não está aquecido no mundo todo, com várias marcas passando por redução de vendas e mercados emergentes potenciais mostrando fraco crescimento. A dificuldade pesou para a chinesa, que decidiu pela redução. O total representa cerca de 2% dos 55 mil trabalhadores envolvidos no segmento de mobilidade.
“A maioria das posições eliminadas são parte da integração estratégica em curso entre Lenovo e seu negócio de smartphones Motorola e como a empresa vem se alinhando na organização e agilidade do portfólio de produtos para melhor competir no mercado mundial”, destacou a empresa em comunicado ao mercado.
Essa rodada de demissões é praticamente continuidade dos cortes realizados no ano passado, quando Lenovo cortou 3.200 empregos em toda a empresa. Em maio, a Lenovo reconheceu que não tinha conseguido integrar Motorola como deveria, como os esforços de integração fora de suas expectativas. O custo dessa união tem refletido nas ações da empresa nos mercados chinês e norte-americano.
Aposta no negócio
A Motorola conseguiu recuperar algum prestígio da marca com alguns bons smartphones lançados recentemente. Está ainda, é verdade, longe de seus dias de glória. Contudo, há claros sinais de que a derrocada que vinha ocorrendo pouco antes da compra pelo Google, em 2011, vem mudando de direção.
A Motorola foi comprada pelo Google, em 2011, por US$ 12,5. A antiga marca forte de celulares mundialmente conhecidos não vinha apresentando bons resultados e esperava-se uma recuperação com o apoio da gigante de internet. Mas houve novas dificuldades no mercado e a Motorola mudou de mãos novamente, passando para a Lenovo, e por um valor bem mais baixo.
A empresa acrescenta que os novos cortes de empregos não eram uma decisão fácil, mas foi um passo necessário para garantir o crescimento rentável no longo prazo, e em todas as divisões.
Durante o segundo semestre de 2016, o mercado de tablets apresentou ligeira melhora em relação ao trimestre anterior, de acordo com dados do estudo IDC Brazil Tablets Tracker, realizado pela IDC Brasil. No período, foram comercializados 860 mil equipamentos, incluindo os notebooks 2 em 1, ou seja, 3% a mais do que no primeiro trimestre. Mas o futuro desse produto ainda é incerto, com quedas de vendas projetadas e preços oscilando com o câmbio.
“A expectativa é de que o mercado continue apresentando taxas elevadas nos próximos trimestres, principalmente por conta do Dia das Crianças e do Natal. O público infantil é o foco dos fabricantes que apostam em modelos cada vez mais personalizados para uma faixa etária que ainda não utiliza o celular. Além disso, a Black Friday também deve vir com bons preços e promoções”, conta Wellington La Falce, analista de mercado da IDC Brasil.
O ticket médio dos tablets, em 2015 era de R$ 428. Neste ano, está em torno de R$ 443. “Com a estabilidade do dólar, os preços devem ficar mais atrativos. Porém, estamos falando de um equipamento que depende muito do câmbio. Então, nossa previsão para este ano é de uma elevação de aproximadamente 17% no valor investido para adquirir o produto”, completa o analista da IDC Brasil.
Queda e concentração
Quando comparado o segundo trimestre de 2016 com o mesmo período de 2015, o mercado de tablets apresentou queda de 32%. Segundo La Falce, a categoria perdeu espaço para os smartphones com tela grande. “Antes, o tablet de 7 polegadas era padrão e os smartphones tinham 4 polegadas. Hoje, os celulares têm telas maiores e se tornaram mais atrativos. Houve uma canibalização dos tablets, já que não conseguimos mais justificar a compra de dois aparelhos tão similares. Além disso, muitos fabricantes abandonaram o Brasil. Atualmente, apenas três marcas concentram 75% de todo o mercado”.
Ainda de acordo com o estudo da IDC, em 2016 devem ser comercializados 4 milhões de dispositivos, ou seja, 30% a menos do que em 2015. Para 2017, a expectativa é de mais queda, com 3.6 milhões de produtos vendidos.
Semana passada vazou a informação de que algumas empresas teriam interesse em comprar a rede social Twitter. O nome de duas delas foram logo levantados: Google e SalesForce. As ‘outras interessadas’ não foram descobertas. Mas hoje, 26 de setembro, uma nova concorrente para a aquisição entrou no jogo. De acordo com os noticiários internacionais, o megagrupo de entretenimento Disney conversou com bancos para angariar o capital necessário e fazer uma oferta pelo Twitter.
A notícia da compra em si ainda pode demorar. Bancos de investimento e consultores de ações apontam que o Twitter teria US$ 3,6 bilhões em dinheiro quente no caixa e mais cerca de US$ 1,5 bi em passivos. Uma oferta teria que cobrir isso já de saída. Ainda teria de propor um valor pela tecnologia, os negócios em publicidade, além dos 300 milhões de usuários. Seria um negócio para poucos. Provavelmente um valor fora da realidade para a maioria das companhias do mundo.
E as especulações sobre a venda só têm elevado o preço da rede social. Na semana passada, as ações do Twitter apontavam para um valor de US$ 13 bi. Após o vazamento de que haveria interessados e entre eles Google e Salesforce, as ações subiram e a empresa passou a valer, numa mesma tarde, perto de US$ 20 bi.
Hoje elas subiram novamente, o que leva a crer que uma aquisição feita nesse período de notícias quentes pode girar em torno de US$ 30 bi.
Diversos jornais conseguiram confirmar que a conversa entre a Disney e bancos realmente existiu. Ainda não há informações concretas sobre o montante pretendido, se foi liberado e se há data para a possível compra.
Provavelmente não é o Mickey
A Disney é um imenso grupo de entretenimento e mídia. Entre suas empresas estão a Marvel (de super-heróis), a Lucas Film (produtora da série Guerra nas Estrelas), a rede de TV ABC e a de esportes ESPN. Qualquer uma delas ganharia com o Twitter
A rede social passa por uma estagnação, mas ainda é mais importante mídia para acompanhar simultaneamente notícias e esportes. É a chamada “segunda tela”, que faz os usuários não tirarem os olhos da TV ao mesmo tempo que comentam tudo no Twitter.
Embora o termo IoT apresente uma amplitude infinita, em linhas gerais a Internet das Coisas/Internet of Things é o processo de sensorização (sensing) de coisas e de pessoas. Quando o sensor IoT está conectado à nuvem e organizado em uma amostra satisfatória, transforma se em uma brigada. A brigada IoT é formada por “fileiras” de dispositivos IoT (“soldados” IoT) que podem ser analisadas e empregadas a partir de uma visão unificada. É sobre esta brigada que podemos gerar análises estatísticas que serão consolidadas em dashboards de tomadas de decisão.
Segundo o Gartner hoje, a cada segundo, 65 novos dispositivos se conectam à rede nos grandes mercados globais.
Sensores em cada uma das coisas estão sendo desenvolvidos e inventados para facilitar a conexão a diferentes meios de comunicação, além de baixar o custo de implementação. Os sensores mais comuns como RFID (ativo e passivo), Beacon (Bluetooth), QR Code, NFC e outros têm sido implementados em larga escala nas coisas. Estudos complexos devem ser os responsáveis por definir o melhor sensor para cada dispositivo, além de indicar os resultados esperados de cada tecnologia em cada vertical de mercado. Hoje, o mercado conta com um leque de opções que vai de sensores de temperatura e pressão até sensores de cidades inteligentes. Cada uma dessas tecnologias tem seu papel e sua característica específica.
Um tipo de tecnologia, no entanto, tem se destacado entre a miríade de plataformas IoT: Video Analytics.
A substituição do tradicional tráfego de dados, voz e imagem na Internet pelo tráfego de vídeo reforça essa tendência. Um levantamento feito pela Cisco em junho deste ano aponta que, até 2020, 80% do tráfego na Internet será composto por vídeo. A mesma pesquisa indica que, em 2020, a cada segundo, cerca de 1 milhão de minutos de conteúdo em vídeo será publicado na Net. Grandes iniciativas de grandes vendors do mercado apontam para o desenvolvimento contínuo de soluções de Vídeo Analytics, Realidade Virtual e Realidade Aumentada. Vide a compra da Oculus pelo Facebook, o estrondoso sucesso do jogo de Realidade Aumentada Pokemon Go, etc.
Isso significa que as soluções baseadas em vídeo serão as principais responsáveis por sensoriar tanto coisas como pessoas.
Pensar o IoT exige que compreendamos que essa tecnologia é constituída por dois mundos diferentes: o IoT das coisas conectadas e o IoT das pessoas conectadas. Há uma estreita relação entre sensoriar pessoas e o uso da tecnologia de Video Analytics.
Em relação à monitoração das coisas, veremos objetos recebendo os mais variados sensores possíveis. Isso inclui soluções de vídeo que conseguem detectar o número de carros que passam numa estrada e, ao mesmo tempo, calcular estatísticas organizadas por cor, modelo e placa dos veículos monitorados. Em alguns casos, será a tecnologia RFID que irá identificar as características dos carros em questão.
A tecnologia IoT aplicada a pessoas, por outro lado, é ainda mais instigante.
É o caso de soluções de Video Analytics capazes de identificar as pessoas, individualizá-las, definir sexo, idade estimada, estado de humor e, a partir daí, cruzar esses dados com o perfil da pessoa nas redes sociais e passar a acompanhar o comportamento da pessoa, onde quer que ela esteja. Este sensor de pessoas era, no passado, definido pelo aparelho móvel do usuário, quer fosse o celular, o tablet, etc.
Hoje, esse papel é representado por soluções de Video Analytics plenamente capazes de mapear um ser humano e individualizar essa pessoa com ajuda da social media. Isso pode ser feito sem que seja necessário usar os sensores baseados em dispositivos móveis ou chip digital. Tudo é realizado a partir da análise das imagens em vídeo da pessoa.
Essa revolução tecnológica esbarra em discussões sobre privacidade e segurança.
A maior parte dos países, incluindo o Brasil, conta com legislação que protege o direito de divulgação na TV ou na Internet de imagens em vídeo de uma pessoa. Não existe ainda nada parecido para evitar que a imagem em vídeo de uma pessoa – imagem coletada por dispositivos IoT – seja submetida a análises detalhadas para fins de mercado.
Já vivemos a era do IoT, seja o IoT aplicado a coisas, seja o IoT aplicado a pessoas. Os sensores de coisas funcionam de 1 para “n”. O número “1” representa cada coisa, cada objeto que precisa ter sua própria etiqueta RFID ou NFC ou QR Code para poder ser “sensorizado”. Isso é o que habilita esse objeto a ser monitorado por “n” leitores.
As soluções IoT de Video Analytics vão por outro caminho. Neste caso, encontramos a relação “n” para “n”. O primeiro “n” representa um número indefinido de seres humanos que podem ser monitorados simultaneamente por “n” dispositivos de Video Analytics, em geral câmeras de gravação e análise de imagens. Neste modelo de sensorização, cada ser humano é um sensor vivo que ativa e atrai câmeras inteligentes capazes de cruzar dados com redes sociais, rastrear pessoas e chegar a deduções muito refinadas.
Podemos dizer, portanto, que, hoje, cada pessoa é um sensor inteligente. Mesmo sem saber.
* CEO da Go2neXt Cloud Computing Builder & Integrador
A Microsoft anunciou hoje, 26 de setembro, uma parceria com a Adobe Systems para oferecer produtos destinados ao marketing dos clientes em sistema de nuvem (cloud computing). A plataforma Azure, da Microsoft, será a base para o portfólio a ser apresentado. Ao mesmo tempo, o leque de conhecidos softwares da marca Adobe serão oferecidos pela nuvem da Microsoft.
O marketing tem sido a nova seara da TI nos últimos anos. Nos clientes, esse departamento tem crescido mais do que o tradicional Tecnologia da Informação. Tem, inclusive, comprado mais tecnologia para ajudar vendas, atendimento ao cliente e criação de novos serviços digitais.
Com a parceria, a Microsoft dá um claro recado que não quer ficar para trás nessa nova configuração de mercado. O aviso é principalmente para Oracle e Salesforce, que também investem pesado há algum tempo para serem dominantes nos departamentos de marketing, assim como foram nos departamentos de TI dos clientes.
Crescimento
A Microsoft foi uma das primeiras empresas tradicionais de TI a investir na nuvem. O atual CEO, Satya Nadella, foi durante anos o diretor responsável por esse avanço. Quando a vaga de executivo principal ficou aberta, seu nome foi ganhando força aos poucos. A receita vinda do Azure dobrou sob seu comando. A empresa planeja trazer nada menos do que US$ 20 bilhões faturamento de produtos e serviços de cloud em 2018. Atualmente, essa cifra gira em torno de US$ 12 bi.
A Adobe é a marca por trás do conhecido programa Photoshop, para tratamento de imagens e criação de materiais de propaganda. O acordo não é de exclusividade e as empresas não projetaram números e expectativas quantificáveis para essa parceria. Apenas consideraram que é um grande impulso para estratégias de clientes em seus departamentos de marketing e criação.
Um carro autônomo (sem motorista) do Google envolveu-se em um acidente que é o mais grave relatado até hoje com esse tipo de automóvel. A SUV Lexus da empresa de internet fazia tranquilamente seu trajeto quando uma van, com um humano ao volante, ultrapassou o sinal vermelho em sua via. A batida, ocorrida nesse domingo, 26 de setembro, em Mountain View (Califórnia) foi forte e pegou o carro do Google no meio do lado direito (o lado do passageiro, como conhecemos em nossos carros), deslocando o auto da pista.
Testemunhas relataram que a van seguia na estrada El Camino Real e não mostrou sinal de que tinha notado o cruzamento fechado para ela. O carro do Google já havia começado a seguir há, pelo menos, seis segundos quando foi pego de surpresa.
A colisão foi forte, amassando toda a lateral da SUV Lexus autônoma. No entanto ninguém saiu gravemente ferido do abalroamento. A pessoa no carro do Google sentiu incômodo no pescoço e foi ao hospital fazer exames, onde nada grave foi relatado.
Tudo mais complicado
O surgimento dos carros autônomos levantaram uma série de questões sobre sua segurança e comportamento em caso de situações como essa. Alguns estados americanos estão liberando o uso desses veículos aos poucos, mas especialistas exigem garantias de previsão de conduta em caso de acidentes.
Sem condições de rodar, após o acidente, carro autônomo do Google foi rebocado por um guincho
Mas até agora, a preocupação era com os pedestres. Por exemplo, se o carro tiver uma falha perto de uma faixa de segurança, ele seguirá e atropelará pessoas ou desviará, causando danos em quem está transportando? Parece uma questão filosófica, mas a questão principal aqui é segurança. Existem diversos cenários desses descritos e os técnicos estão buscando respostas.
Mas um abalroamento por um veículo dirigido por humano não era a discussão principal. A pergunta que fica é: com tantos sensores, câmeras, possibilidade de conexão com bancos de dados, etc, o carro autônomo poderia prever que seria atingido?
Outra questão curiosa é sobre os termos para legisladores e boletins policiais do caso. A pessoa no carro do Google era genuinamente um passageiro, já que não conduzia o veículo. O carro estava em modo de autocondução. Mas ela estava sentada na frente do volante, no lugar que hoje chamamos de banco do motorista. Mas pode existir um banco do motorista em um casso sem motorista?
A brasileira Resource IT anuncia mais um movimento de sua expansão internacional, com o início da operação no México e a inauguração de sua terceira filial nos Estados Unidos, em Dallas, no Texas. A companhia já possui escritórios consolidados na Flórida e na Califórnia. As iniciativas evidenciam o plano estratégico de internacionalização da empresa e ocorrem para atender os clientes que possuem atuação nas regiões, além de permitir a ampliação do atendimento a companhias locais nos dois países. “A abertura das novas filiais impulsiona a presença da Resource IT nos maiores mercados da América do Norte, o que proporciona aos nossos clientes que são, na grande maioria, empresas globais, um atendimento personalizado, de alto valor agregado”, comenta Gilmar Batistela, CEO Global da Resource IT.
A escolha dos locais foi estrategicamente planejada. O Texas possui a segunda maior economia dos Estados Unidos. Seu PIB (Produto Interno Bruto) é comparável com o da Espanha inteira. Por isso, segundo Batistela, “abrir uma unidade na região era um movimento natural dentro de nossa estratégia comercial. Projetamos um crescimento importante de nossa carteira de clientes com esse novo escritório”.
A Resource IT iniciou sua operação nos Estados Unidos em 2000, em Miami (Flórida). Em 2014, inaugurou uma unidade de pesquisa e inovação em Sunnyvale, no Vale do Silício (Califórnia), para levar as últimas tendências em tecnologia aos seus clientes. “Atendemos companhias com atuação internacional, principalmente nos Estados Unidos. Por isso, continuamos investindo para aumentar a nossa presença e capilaridade no mercado norte-americano”, afirma Fábio Back, Vice-Presidente de Negócios para a América do Norte da Resource IT.
A chegada da empresa em solo mexicano complementa a estratégia de expansão. “Como a segunda maior economia da América Latina e uma das 15 maiores mundialmente, o México possui muito potencial, principalmente em relação ao mercado de TI e de transformação digital”, comenta Back, que também é responsável pela filial mexicana. Um estudo produzido pela Associação Brasileira das Empresas de Software (ABES) em parceria com a IDC evidencia a importância do país, que é o segundo maior mercado de TI da região latino-americana, com investimentos de US$ 26,6 bilhões em 2016.
Mais escritórios
O processo de internacionalização da Resource IT deverá avançar ainda mais no próximo ano. Com presença na América do Norte e América Latina, onde possui operações no Chile e na Colômbia, a companhia planeja abrir em breve uma filial no Peru. “Aproveitamos o momento de crise econômica no Brasil para nos estruturarmos, refazer nossas ofertas e desenvolver soluções muito mais aderentes e inovadoras, que podem ser comercializadas em escala e por segmentos de indústria”, comenta Batistela. Segundo o executivo, o cenário brasileiro gerou oportunidades para a empresa. “A economia brasileira dá sinais de aquecimento. Entendemos que a pior parte já passou e estamos prontos para acelerar e crescer”, comemora.
Os planos internacionais da Resource IT não param por aí. “Com o mercado nacional sob controle e a expansão na América do Norte e América Latina em andamento, temos agora mais energia para estudarmos a entrada da companhia no mercado Europeu”, finaliza Batistela.
Há semanas o governo americano vem batalhando no congresso para aprovar um plano de modernização da TI estatal. Nessa quinta-feira, 23 de setembro, os parlamentares reuniram o melhor de dois textos que circulavam pela casa e criaram o Modernizing Government Technology Act. O objetivo é liberar verba e poder de decisão para mais de duas dezenas de agências e órgãos públicos que sofrem com o legado da TI e as brechas de segurança de softwares e equipamentos ultrapassados.
Os congressistas, tanto republicanos como democratas, sabiam que algo precisava ser feito. A discussão maior foi por conta de haver dois projetos para a modernização da TI do governo americano e tratativas para buscar um texto comum que levasse o melhor de ambos. “Boa parte da TI dos Estados Unidos está na ‘idade da pedra’”, enfatizou o republicano, do Texas, Will Hurd, co-autor da proposta e presidente do subcomitê de TI do congresso.
O governo americano gasta 80% dos US$ 90 bilhões destinados a sua TI em cuidados com o legado, de acordo com números apresentados pelos congressistas. A emenda promoverá facilidades de crédito, criação de um fundo para alavancamento dos projetos e independência para os órgãos estatais investirem em TI nova. O movimento para entrar na cloud computing é o mais dado como certo. A nuvem tem trazido economia de custos e upgrades rápidos.
Esforço bipartidário
O MGT Act é fruto da combinação do Move IT (um trocadilho com “mova-se” e TI), feito por Hurd, e o White House-backed IT Modernization Fund, criado pelo democrata, de Maryland, Steny Hoyer. Ao destacar o sucesso do esforço bipartidário, Hurd foi enfático e polêmico. “Às vezes, a população vê as coisas aqui e isso parece um circo”, disse. “Mas, trabalhando juntos, podemos resolver problemas maiores, e isso foi um exemplo”.
Sistemas que possam aprender com o comportamento de uso e variáveis de funcionamento para melhorarem a cada dia. Essa é a aposta de centenas de startups pelo mundo e de algumas corporações da tecnologia. O machine learning, um sub-campo da inteligência artificial, está na pauta de discussões de várias reuniões de estratégias nesse exato momento. Mas uma empresa está tendo mais atitude do que as demais para fortalecer-se nesse campo.
A Apple acaba de comprar mais uma empresa de machine learning. O alvo desta vez é a indiana Tuplejump. A startup se junta à Perceptio, comprada no final de 2015 e à Turi, adquirida no início de agosto.
Os valores do negócio não foram divulgados, o que é uma prática comum com negócios que envolvem startups, que não possuem as mesmas obrigações de divulgação financeiras das empresas com ações na bolsa. Essa companhias abertas, por sua vez, podem tratar essas compras com mais segredos e somente publicar algo nos balanços para mostrar como o dinheiro dos acionistas foi usado e está gerando resultado.
A fabricante do iPhone também não comentou a nova aquisição, soltando apenas aquela nota oficial conhecida e que parece uma resposta automática de call center: “A Apple compra empresas de tecnologia menores de tempos em tempos, e nós geralmente não discutimos esse nosso propósito ou planos.”
O que há na Tuplejump?
A startup indiana não é conhecida do mercado. Sequer é uma das estrelas da tecnologia indiana, que tem verdadeiros gigantes de outsourcing de TI e fábricas de software que vendem desenvolvimento por hora/homem. Mas quantas pessoas você pode contar que conhecem os fornecedores de machine learning hoje? Então, nesse caso, desconhecida não quer dizer soluções irrelevantes.
A Tuplejump nasceu com a ideia de “democratizar o big data” e “simplificar a rapidez com que se recupera dados em projetos de big data”, de acordo com postagens antigas. Sim, foi preciso recorrer ao cache dos mecanismos de buscas porque, após o negócio não confirmado pela Apple, a Tuplejump meio que desapareceu. Seu site e seu projeto principal, o FiloDB estão sendo recolhidos aos poucos.
Esse talvez seja o objetivo da Apple, o FiloDB é um sistema que vinha sendo desenvolvido em opensource para trabalhar no big data e analytics de informações complexas.
O canal de TV por assinatura, especializado em negócios, CNBC, de propriedade da NBC Universal, acaba de soltar um plantão no qual afirma que o Twitter recebeu propostas para ser adquirido. Entre as empresas interessadas na rede social estariam o Google e SalesForce.
Com a notícia as ações do Twitter subiram 15% na manhã desta sexta-feira na bolsa de valores de empresas de tecnologia Nasdaq. A empresas envolvidas ainda não se manifestaram sobre a nota veiculada. Os papéis da possível comprada continuaram com tendência de alta durante toda a manhã. Uma tendência contrária a que vinham mantendo.
As ações do Twitter têm oscilado nas últimas semanas com boas e más notícias sobre os rumos da empresa. Foram para baixo quando houve divulgação de resultados insatisfatórios de suas ações de publicidade e subiram durante alguns anúncios de parcerias, principalmente com a associação de futebol americano para a transmissão ao vivo dos jogos da NFL. O posicionamento da rede de se colocar como concorrente direta das TVs tradicionais, e não uma ameaça ao Facebook e outros negócios de mídia social, também ajudaram algumas subidas.
Os boatos de venda do Twitter são comuns. A rede, surgida em 2006, teve vários anos de crescimento e aumento dos usuários diários. Entre 2008 e 2009 viveu um auge de representatividade do social business. Mas os últimos três anos têm sido de batalhas incansáveis para tornar-se relevante novamente. Houve troca de comando em mais de uma vez e vários pedidos de desculpas sobre planos anteriores equivocados. Durante os últimos meses, esses boatos envolveram até mesmo o Yahoo como possível fusão.
A CNBC afirma que o board do Twitter tem desejo profundo pela venda. Mas nada está em posição de ser eminente. Se ocorrer, um negócio desse tipo tem mais chance de ser efetivado nos próximos meses.
O fim do Yahoo não está sendo digno de quem foi símbolo de uma fase áurea da internet. A empresa foi comprada recentemente pela companhia de telecomunicações Verizon. Em vez de ser lembrada pelo que representou para o mundo digital, o Yahoo pode ficar marcado por ter tido o maior vazamento de informações de internautas da história. A empresa confirmou, nessa quinta-feira, 23 de setembro, que hackers invadiram os sistemas e roubaram dados de 500 milhões de usuários.
A brecha de segurança foi usada no final de 2014 por hackers, aparentemente bem conscientes do que estavam fazendo. Uma investigação interna da empresa aponta para grupos patrocinados por algum governo. Suspeita que é realmente só da própria empresa, por enquanto, e está sendo encarada com certo ceticismo por especialistas.
Hackers estrangeiros tem sido notícia nos Estados Unidos por conta de vazamentos de e-mails e informações dos candidatos á presidência em uma disputa acirrada. Tanto Hillary Clinton, democrata, quanto Donald Trump, republicano, tiveram problemas com hackers – ao que tudo indica, russos.
Bob Lord, executivo do Yahoo, foi quem emitiu a nota oficial citando os hackers “patrocinados por governos”. Segundo ele, não há “evidência que os grupos organizados estejam ainda no sistema da companhia”. O FBI está investigando o caso. A Verizon, por sua vez, disse que não sabia do vazamento na época da compra e só tomou conhecimento no começo dessa semana. Conforme avancem essas investigações, o negócio corre o risco de ser cancelado.
As informações roubadas não compreendem as senhas em si. Mas contêm dados sobre como e quando foram usadas (metadados), além das perguntas feitas para confirmação em caso de esquecimento. Também foram vazados nomes, e-mails, números de telefones, datas de nascimento. A empresa afirmou que os dados sobre cartões de crédito e pagamento não foram comprometidos.
E quem já não usa o Yahoo?
O vazamento é preocupante mais pelo uso que as pessoas fazem de suas senhas. Recentemente, um vazamento do esquecido e quase sepultado MySpace desencadeou milhares de invasões simplesmente porque os hackers cruzaram nomes e senhas para descobrir se alguém repetia o logon com as mesmas palavras-chave. O dono do Facebook, Mark Zuckerberg, teve perfis em rede social invadido justamente por que usava a mesma senha em sites diferentes. Nesse caso, os hackers descobriram que sua senha do Linkedin servia em duas outras redes sociais .
O mesmo pode ocorrer com o roubo do Yahoo. Para um hacker com acesso a programas específicos (e não muito difíceis de serem encontrados) é possível testar a mesma combinação de nome e senha em vários sites para ver se há repetição. Então, fica a dica: se você já usou o Yahoo na vida (ou algum dos seus serviços) e o mesmo nome do usuário e senha foram usados em outro site, troque agora seu login.
Você já deve ter visto seus amigos nas redes sociais dizendo que correram vários quilômetros. Essa é uma postagem automática feita por vários dos novos dispositivos tecnológicos criados para o mercado fitness. O mercado foi inundado por eles, são pulseiras, relógios, tênis e outros dos chamados wearables (vestíveis) que prometem mais qualidade de vida, boa forma e, de quebra, a perda daqueles quilinhos indesejáveis.
Mas um estudo publicado no Journal of American Medical Association (da Associação Médica Americana – AMA) alerta que, pelo menos nesse último quesito, é bom ficar cético. Os pesquisadores passaram dois anos analisando voluntários e como a tecnologia auxilia na perda de peso. E o resultado foi inesperado. Várias pessoas ganharam peso após um tempo de emagrecimento.
A revelação é justamente oposta a estudos anteriores e os pesquisadores creditam isso ao tempo mais longo de verificação. As pesquisas anteriores paravam no ponto que as pessoas realmente perdiam peso e, assim, não visualizaram o fenômeno que contradiz boa parte do discurso comercial usado por vendedores desses dispositivos.
Os pesquisadores alertam que colocar sobre os ombros da tecnologia esses problemas sérios como, prática de atividade esportiva, dieta, força de vontade e motivação para emagrecer não é a melhor prática. “Temos que ser um pouco cautelosos sobre simplesmente pensar que podemos apenas adicionar a tecnologia a estas intervenções já eficazes e esperar melhores resultados”, diz o pesquisador John Jakicic, da Universidade de Pittsburgh, em entrevista ao jornal da AMA e se referindo aos métodos tradicionais de nutrição e dieta com acompanhamento médico.
Ganho de peso
A equipe mediu 471 adultos jovens (com idade entre 18 e 35 anos) que estavam acima do peso (com um peso médio de cerca de 95 kg) e queriam emagrecer. Durante seis meses, os participantes tiveram uma dieta de baixa caloria, um plano de fitness prescrito por médicos e sessões semanais de aconselhamento em grupo. O progresso foi medido diariamente e revelou que todos perderam entre 7,7 kg e 8,6 kg.
Na segunda fase, os participantes foram divididos em dois grupos. O primeiro recebeu dispositivos tecnológicos que medem e aconselham atividades (como fazem as pulseiras inteligentes e relógios inteligentes). Outro grupo manteve a dieta padrão e só foi pedido que fizessem logon no site do estudo para indicar as atividades e progresso.
Com 24 meses do estudo, vários participantes de ambos os grupos ganharam pelo menos o peso que haviam perdido durante os seis primeiros meses. Considerando o peso médio total dos dois grupos, o que manteve a dieta e recomendação padrão perdeu, em média, 5,8 quilos. O que utilizou a tecnologia perdeu, em média, 3,6. Outra derrota pros dispositivos que prometem saúde e vigor físico.
Os pesquisadores dizem que será preciso fazer mais estudos para verificar o porque dos dispositivos tecnológicos sabotarem o objetivo de perder peso. Mas sugerem já duas hipóteses. A tecnologia pode entusiasmar as pessoas no começo e, como é comum nesse tipo de novidade da indústria, aos poucos ir perdendo a magia. Com isso as pessoas também ficariam desmotivadas e os resultados não são os esperados.
Outra hipótese é que os dispositivos não estão levando em conta que, ao praticar mais atividades físicas, as pessoas queimam mais calorias e desgastam mais o organismo do que estão acostumadas. Isso pode levá-las a consumir mais comida e alimentos que façam engordar repentinamente. Jakicic adverte que é preciso ter cautela com as promessas da tecnologia. “Vimos que ela funciona pra umas pessoas e para outras não”, e é preciso mais testes para verificar até onde vai a eficácia desses dispositivos.
O que você faria se soubesse que a cidade onde mora recebeu R$ 3,6 bilhões do governo federal para manter os serviços públicos funcionando durante um ano? O montante pode impressionar à primeira vista, mas será, de fato, um valor significativo quando pensamos na cidade de São Paulo? Considerando-se que o município é o mais populoso do Brasil e dividindo esse montante pelo número de habitantes da cidade, é como se cada cidadão paulistano tivesse recebido apenas R$ 309,09 do Governo Federal durante 2015.
Se morasse em Presidente Kennedy, município do Espírito Santo com apenas 11.221 habitantes, esse cidadão não poderia reclamar: teria recebido, no mesmo período, exatamente R$ 21.113,36, ou seja, 68 vezes o valor per capita (por pessoa) de São Paulo, devido ao repasse dos royalties do petróleo na região. Não é à toa que a cidade capixaba ocupa a primeira colocação no ranking dos municípios que mais receberam recursos per capita do governo federal em 2015, enquanto São Paulo amarga a posição 5.510, quase um lanterninha no hall dos 5.568 municípios do Brasil.
Todos esses dados estão disponíveis no portal Repasse, desenvolvido em parceira por pesquisadores do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP, em São Carlos, e da Universidade Federal do ABC (UFABC). “A ideia veio quando imaginei minha mãe no posto de saúde. Ela chega e não tem médico, não tem medicamento, não tem agulha e pergunta: por quê?”, conta o pesquisador William Siqueira.
Um dos rankings cridos pelo portal Repasse mostra recursos recebidos em 2015
Vale lembrar que avaliar apenas os repasses per capita das duas cidades pode levar a conclusões precipitadas. Para uma adequada análise, é preciso considerar outras informações, entre elas o Índice de Desenvolvimento Humano (IDH), e examinar a complexa e diversa realidade dos dois municípios. A leitura dos dados é apenas um ponto de partida. Para chegar à compreensão, é preciso ir além. Esse desafio cabe a cada cidadão.
Foi durante um curso de especialização em tecnologias e sistemas de informação na UFABC que William resolveu se dedicar à criação de uma plataforma para ajudar o cidadão comum a encontrar respostas para os problemas que costuma enfrentar na hora de utilizar um serviço público: será que o Governo Federal repassou o dinheiro para a prefeitura? A prefeitura enviou ao posto de saúde? O posto gerenciou adequadamente o recurso? “Quando um cidadão tenta encontrar essas respostas e começa a pesquisar, cai em um monte de burocracia e informações picadas, que nunca lhe dão uma visão geral sobre onde está o problema”, completa William. Na UFABC, ele conheceu o professor Mário Gazziro, que se tornou o orientador de seu projeto. Para ajudar a enfrentar os diversos obstáculos que precisariam superar para colocar a proposta em prática, eles estabeleceram uma parceria com o professor José Fernando Rodrigues Júnior, do ICMC.
Transparência
“A ideia do projeto se baseia no fato de que não basta ter dados. Eles precisam estar integrados, organizados e serem acessíveis de maneira interativa e amigável para a população”, revela José Fernando. O professor explica que, apesar da exigência de que os municípios apresentem seus dados de forma transparente – a Lei de Acesso à Informação (Lei 12.527) entrou em vigor em março de 2012 –, não há um padrão na apresentação: “Algumas cidades ainda publicam os dados somente em formatos dificilmente legíveis por máquinas, como, por exemplo, papéis digitalizados (escaneados), um artifício para dificultar o processamento automático”.
É por isso que iniciativas como a do Repasse podem contribuir para ajudar a conscientizar as prefeituras sobre a necessidade de se ter mais transparência e estimular a participação da população na fiscalização das contas públicas. Ao acessar a plataforma, é possível ver detalhadamente onde foram aplicados os recursos repassados pelo governo federal a cada município, mês a mês. Por meio de gráficos coloridos e dinâmicos, o cidadão consegue verificar quanto foi investido em cada área (saúde, educação, saneamento, cultura, etc.), subárea, programa e ação, além de identificar quem foi favorecido e quanto recebeu.
A ferramenta também possibilita fazer comparações. “É possível identificar discrepâncias e irregularidades ao se comparar municípios. Esse é o intuito do projeto: estimular o cidadão comum a saber o que está acontecendo na administração de sua cidade e a ficar atento a possíveis problemas na destinação dos recursos”, ressalta o professor Mário.
“A sociedade brasileira amadureceu e vive uma fase de busca de informações, de transparência, de respeito aos seus direitos. Agora não basta a divulgação de um resultado, ela quer ter certeza do conteúdo e tem o direito de questionar. Por isso, todo e qualquer trabalho desenvolvido por entidade pública, privada ou mesmo pessoa física é muito bem-vindo”, diz o ouvidor do Ministério Público do Estado de São Paulo, Roberto Fleury de Souza Bertagni. Ele revela que muitos cidadãos entram em contato com a Ouvidoria para fazer denúncias e pedir a atuação do Ministério depois de obter informações em plataformas, sites e outros meios de divulgação.
Fleury cita o exemplo de uma prefeitura que recebeu um repasse do governo federal de R$ 5 milhões destinados à saúde. Quando o recurso é desviado para outros fins, cabe ao Ministério Público Federal investigar o caso, pois houve prejuízo ao patrimônio da União. Mas se o montante é investido de forma inadequada ou ineficiente, cabe ao Ministério Público do Estado averiguar a prestação do serviço.
De onde vêm os dados
Atualmente, o portal Repasse trabalha com os dados disponibilizados no Portal da Transparência. São contabilizados somente os repasses realizados pelo governo federal aos municípios e não outras fontes de recursos obtidos pelas cidades, tal como o dinheiro arrecadado diretamente pelos municípios via Imposto Predial e Territorial Urbano (IPTU), Imposto sobre Serviços (ISS), Imposto sobre Transmissão de Bens Imóveis (ITBI) e outras taxas (água, luz, etc.). Também ficam de fora os repasses realizados pelos governos estaduais referentes ao Imposto sobre Circulação de Mercadorias e Serviços (ICMS) e ao Imposto sobre a Propriedade de Veículos Automotores (IPVA).
“O próximo passo natural da ferramenta é estender a base para dados municipais de arrecadação e adicionar outras métricas, como o Índice de Desenvolvimento da Educação Básica (Ideb), os resultados do Enem e dados provenientes do Datasus”, explica José Fernando. Ao acrescentar esses novos dados ao portal, será possível avaliar com mais precisão se os recursos financeiros aplicados estão trazendo resultados em áreas como educação, saúde e segurança, por exemplo. Também será necessário utilizar tecnologias mais robustas de processamento e apresentação de dados, como técnicas de inteligência artificial, aprendizado de máquina e mineração de dados.
Atualmente, existem várias ferramentas na web que possibilitam avaliar a gestão dos recursos públicos, entre elas estão o portal Meu Município e o Compara Brasil. Há, ainda, o recém-lançado Ranking de Eficiência dos Municípios – Folha (REM-F), o qual mostra que cerca de 70% dos municípios brasileiros dependem hoje, em mais de 80%, de verbas que vêm de fontes externas de sua arrecadação. Esse alto grau de dependência das prefeituras para com os recursos da União e dos Estados contribui para reforçar a relevância da população acompanhar como esses recursos são investidos localmente.
O professor Mário ressalta que é importante o cidadão avaliar as fontes de dados desses sites. Alguns deles utilizam a declaração final de renda, um documento que os municípios são obrigados a entregar para o Tesouro Nacional. “Essa não é uma fonte tão confiável quanto o Portal da Transparência, pois há casos de municípios que fraudam os dados antes de entregarem esses relatórios ou simplesmente atrasam a entrega em anos de eleição, ocultando a saúde financeira do município e impedindo que os eleitores e a mídia tenham acesso à informação”, pondera o professor.
Movimento global – Para os pesquisadores que criaram o projeto Repasse, o principal diferencial da iniciativa é possibilitar que o cidadão explore livremente os dados. “O site permite a montagem de vários rankings e a realização de novos comparativos”, conta José Fernando. São funcionalidades que só existem porque o projeto foi construído com dados abertos e qualquer pessoa pode acessar sua Interface de Programação de Aplicações (API). “Isso facilita misturar uma fonte de dados com outra. Por exemplo, se o cidadão tem um hospital do lado da casa dele que não funciona bem, ele pode checar quanto é repassado para lá e comparar o valor com o que é recebido por outros hospitais da região. Dessa forma, qualquer pessoa pode construir sua própria aplicação”, exemplifica William.
O portal segue um movimento mundial que busca disponibilizar as informações de maneira que qualquer pessoa ou computador possa acessá-las, manipulá-las, reutilizá-las e redistribui-las, relacionando-as a outros dados disponíveis sobre o assunto. São os chamados dados abertos conectados, um conceito fundamental quando a meta é ampliar a transparência pública.
“A Inglaterra e os Estados Unidos estão liderando o movimento em prol da produção dos dados abertos conectados”, diz o professor Seiji Isotani, do ICMC. Ele lançou, junto com o professor Ig Bittencourt, do Instituto de Computação da Universidade Federal de Alagoas, o livro Dados Abertos Conectados. Entre os desafios que permeiam a área, os autores citam a falta de conhecimento técnico sobre como disponibilizar os dados de forma aberta e conectada e também a falta de conhecimento tecnológico sobre as ferramentas existentes para realizar essa tarefa de forma adequada.
No Brasil, o grupo Transparência Hacker tem atuando em prol da disseminação dos dados abertos e se tornou um fórum de debates para que cidadãos, jornalistas e desenvolvedores encontrem soluções quando se deparam com informações públicas em formatos que dificultam a leitura por computadores.
Não está sendo fácil acompanhar todas as polêmicas sobre o Uber, app de transporte alternativo nas grandes cidades. A rixa com os taxistas tem sido o tema menos complicado. Entre notícias diárias de proibições, futuro com carros autônomos e novas regulamentações imaginadas por gestores públicos, a China emite um alerta assustador. Fotos de motoristas caracterizados como zumbis, ou fantasmas, estão se espalhando entre esses prestadores de serviço e isso está amedrontando os usuários.
Dezenas de passageiros estão relatando os perfis de motoristas horripilantes. As fotos são tratadas em programas de edição de imagens para parecerem realmente assustadoras. Com isso, muitas corridas estão sendo canceladas de última hora, assim que o passageiro recebe a confirmação com a fotografia do motorista.
O site Sixth Tone aponta que isso está longe de ser uma brincadeira de Halloween antecipada. A prática é uma gatunagem que deve, em breve, ser banida do serviço. Ao cancelar a corrida nessa etapa do procedimento, o passageiro é obrigado a pagar uma multa. Esse dinheiro é revertido ao motorista, que assim ganha sem fazer o transporte e tem mais tempo para outro passageiro.
Alguns dos motoristas “zumbis” do Uber que estão apavorando passageiros chineses
A multa é irrisória, alguns yuans, em caso de cancelamento repentino. Pode chegar a um pouco mais se o passageiro entrar no carro e iniciar o trajeto. Os casos são previstos, mas o dinheiro é realmente migalha. Não chegaria, na maioria desses ocorridos, a R$ 10.
Invasão de zumbis
Os relatos de motoristas com fotos de zumbis espalharam-se pela China. Os perfis fantasmagóricos foram avistados em várias das grandes metrópoles do país, como Pequim, Xangai, Tianjin e Zhengzhou. O Uber opera em mais de 60 cidades chinesas e realiza mais de 150 milhões de corridas por mês.
Alguns casos estão sendo tratados pelo Uber como uma prática irregular e já existem passageiros que prestaram queixas e foram reembolsados pela empresa.
O surgimento dos perfis com fotos zumbis mostra que uma tecnologia recente adotada pela empresa não está funcionando como deveria. No início de 2016, o Uber incluiu um reconhecimento facial para identificar motoristas. O sistema captura uma imagem na primeira vez que o prestador de serviço se cadastra e repete esse procedimento periodicamente. As fotos fantasmagóricas não deveriam aparecer para os passageiros.
Para atender as demandas do mercado por mais agilidade e eficiência operacional, a Stefanini uma das mais importantes provedoras globais de soluções de negócios baseadas em tecnologia, aposta na internacionalização das ofertas de Business Process Outsourcing (BPO), utilizando sua estrutura global para atender clientes brasileiros com unidades no exterior ou companhias que desejam expandir suas operações ao redor do mundo.
“Nossa oferta está bem madura no Brasil, com uma média de crescimento acima do mercado. Por isso, decidimos ampliá-la para outros países, dentro da nossa estratégia de expansão acelerada da área de BPO”, afirma Wander Cunha, diretor da Business Consulting da Stefanini. Segundo ele, a estrutura global de BPO está definida e contará com quatro delivery centers principais: Brasil, Filipinas, México e Romênia.
De acordo com Cunha, o grande diferencial da oferta de BPO da Stefanini é o alto nível de automação, que inclui soluções de robotização, analytics e inteligência artificial. “Como a área de BPO é uma das que mais crescem dentro da Stefanini, queremos aproveitar esse momento e a sinergia de gestão para gerar modelos de negócios avançados, que priorizem a eficiência operacional.
Redução de custos
Em momentos de crise, quando as empresas precisam reduzir custos e ganhar produtividade, as soluções de terceirização se apresentam como uma tendência, pois permitem que seus gestores se concentrem nas decisões estratégicas de negócio.
Ao estabelecer parceria com uma empresa de BPO, o contratante transfere mão de obra, infraestrutura e a gestão de parte dos processos de negócio ao fornecedor, que se torna responsável por entregar o serviço dentro dos mais rígidos padrões de qualidade, conforme os Acordos de Nível de Serviço (SLA) e Indicadores e Performance (KPI).
Além de possibilitar foco no core business, o BPO melhora e padroniza os processos de negócio, oferece vantagem competitiva e inovação tecnológica, além de garantir o nível de excelência. As ofertas de outsourcing da Stefanini contemplam as seguintes áreas: Compras, Contact Center (em parceria com a Orbitall), CRM, Suporte a Vendas, Recursos Humanos, Folha de pagamento, Financeiro, Logística, Digitalização de documentos e Backoffice bancário.
A transformação digital dos bancos, impulsionada pelas novas tecnologias disruptivas que abalaram a estrutura tradicional do sistema financeiro no Brasil e no mundo, está obrigando as instituições financeiras a promoverem debates calorosos sobre como regulamentar a atuação das novas startups financeiras, as fintechs, e a sua própria relevância de mercado.
Como estas fintechs se baseiam na oferta de novos serviços mais fáceis de serem contratados e com menor custo, o modelo como os serviços bancários tradicionais são oferecidos entra em xeque e impulsiona o surgimento da necessidade de uma nova regulamentação das atividades financeiras. Com o surgimento das fintechs, outros termos entraram para o glossário do mercado financeiro: bitcoins, pagamentos peer-to-peer, crowdfunding, blockchain.
O impacto disso é tão grande que na edição do CIAB Febraban deste ano os organizadores deste evento reservaram um pavilhão e espaço na grade do congresso para tratar do assunto. Em junho, Comissão de Valores Mobiliários constituiu um Núcleo de Inovação em Tecnologias Financeiras para acompanhar o desenvolvimento e a aplicação de novas tecnologias financeiras no âmbito do mercado de valores mobiliários. Estamos avançando.
Não é à toa que isso ocorra, porque já existem quase 1.500 fintechs no mundo, segundo a empresa de pesquisa Venture Scanner, sendo que uma estimativa do Goldman Sachs sinaliza que 20% do mercado pode ficar nas mãos das fintechs, o que provocará perdas anuais na ordem de US$ 4,7 trilhões aos bancos. Mesmo que os bancos venham a adquirir participação parcial ou total nestas novas empresas, a mudança já está em andamento. Também a consultoria PwC ouviu 176 presidentes-executivos de instituições financeiras de vários países, relevando que 81% deles afirmam que a velocidade das mudanças tecnológicas ameaça o crescimento de suas companhias.
Já aqui no Brasil, o presidente de um dos maiores bancos confessou: “temos que correr”, mas resta saber como realmente os bancos podem se comportar diante deste desafio: combater ou unir-se aos inovadores, aliando suas expertises de negócios e de segurança com as fintechs. Se, por sua vez, a tecnologia da informação levou os bancos e instituições financeiras a levaram seus serviços para a Internet, a partir da criação do Internet Banking e Mobile Banking, as fintechs foram além.
Este cenário também é o tema central do seminário internacional promovido pela UL do Brasil em setembro deste ano, com a finalidade de reunir executivos de instituições financeiras e de meios de pagamento para a troca de experiências, para aprender e debater como dar os próximos passos rumo à inovação com foco no cliente. Aliás, falando em cliente, temos outro assunto a ser tratado: a guarda segura dos dados dos usuários e como eles serão compartilhados com as novas empresas financeiras. A questão que se coloca aqui é: de quem são os dados do cliente? Quem tem a responsabilidade de sua guarda? Como eles devem ser compartilhados? Quem irá regulamentar isso?
A resposta já está sendo dada pela evolução do mercado. Já não vivemos mais no tempo das pedras e não há como não aceitar a evolução tecnológica. O usuário – ciente dos serviços financeiros – quer realizar suas transações e compras online de qualquer lugar, em qualquer dispositivo conectado à Internet, e de modo seguro, sem riscos. Este é o Norte que o mercado de bancos e meios de pagamento do mundo inteiro está seguindo. Na Europa, por exemplo, o Conselho de Estabilidade Financeira do continente concordou com uma estrutura para categorizar as novas tecnologias financeiras, além de analisar seus riscos e benefícios para o seu mercado e clientes. E assim tem caminhado esta história no Brasil. Não poderia ser diferente.
Aqui em terras tupiniquins, desde 2013 já está definido o papel dos agentes financeiros ou não, que participam deste novo mercado impulsionado pelas fintechs, com o Conselho Monetário Nacional definindo as regras para as atividades de empresas que estão fora da definição regulatória do mercado financeiro. Agora, é a vez dos bancos avançarem para se aliarem à nova realidade. O futuro não é amanhã. É agora.
Os dados do usuário: o desafio da confidencialidade compartilhada
Para entender boa parte do impacto desta inovação sobre o mercado financeiro, basta levar em conta que aplicativos gratuitos permitem o controle financeiro onde o usuário cadastra as suas contas e senhas de acesso às suas contas bancárias. Uma API permite o app se conectar aos serviços bancários do cliente e o aplicativo entrega uma planilha com suas informações. Simples assim, mas é através de uma API (Application Programming Interface) que isso acontece, sendo que os dados do cliente – antes inacessíveis a terceiros, passam agora a serem compartilhados pela nova revolução tecnológica. Aqui entra o papel da regulamentação: os bancos guardam os dados, mas é o usuário que é dono deles. E é somente o usuário que dá autorização para que as informações sejam compartilhadas com o app que ele escolher. Basta ao banco respeitar esta vontade inequívoca do seu cliente.
A cruzada contra o consumo de conteúdo ilegal na internet tem avançado muito na última década. Com empresas oferecendo notícias, textos, vídeos, músicas e streaming ao vivo por preços econômicos, uma boa parte da população acostumou-se a pagar para informar-se e divertir-se. Mas essa prática parece ficar restrita aos adultos. Entre os millenials, jovens que hoje têm por volta dos 20 anos, o consumo de conteúdo de forma ilegal continua alto.
Um estudo da Anatomy Media descobriu que dois terços desse público preferem usar formas consideradas pirataria para consumir conteúdo na internet. Esse grupo também é usuário preferencial de bloqueadores de anúncios (adblockers), softwares que impedem que uma propaganda digital seja mostrada, o que interfere diretamente na principal fonte de receita de muitos portais pelo mundo afora.
O estudo foi realizado com 2.700 jovens entre os 18 e os 24 anos. Desse grupo, 69% admite recorrer a pirataria para ver conteúdos na internet. São mais de dois terços dos jovens, uma cifra impressionante. Mais surpreendente ainda é que 67% dos pesquisados acreditam que realizar essa prática não autorizada de consumo de conteúdos na internet é plenamente legal.
Torrent em declínio
O consumo de streaming (transmissões ao vivo on line) é de longe o modo de consumo preferido por esses usuários da pirataria, seja no ambiente de trabalho (42%) ou por meio de dispositivos móveis (41%). Por outro lado, o torrent, tecnologia que vai coletando pedaços de arquivos existentes previamente gravados em outros computadores, mostra um declínio e com preferência de apenas 17% neste grupo etário.
O fenômeno fez a consultoria Anatomy criar um polêmico termo para isso, os “streaminals”. Não é uma mistura de streaming e millenials, mas de streaming e criminals (criminosos, em inglês). A controvérsia sobre o consumo pirata na internet é ainda artigo de debate em muitos tribunais. Recentemente, nos Estados Unidos, juízes consideraram o consumo ou a divulgação de links sem objetivo de lucro fora do foco criminal. Deixando como ilegal somente o armazenamento de arquivos e uso dos links para gerar faturamento.
Bloqueadores
O estudo também mostra que dois em cada três millenials usam bloqueadores de anúncios, seja no desktop ou em dispositivos móveis. A consultoria adverte que há uma ligação entre os adblockers e a pirataria. Sites com conteúdo ilegal costumam ter anúncios saltando a todo momento e muitos deles remetem para sites falsos ou inserem malwares nos computadores.
Como conselho, a Anatomy aponta que isso não é o fim do mundo para criadores de conteúdos que dependem de anúncios. O uso de propaganda mais amigável e que consiga mostrar uma experiência nova ao consumidor pode reverter esse quadro facilmente. “Millennials aceitarão publicidade, desde que contida em seus desejos e direcionadas para algo que eles acreditem ser relevante”.
De acordo com o jornal Financial Times, de Londres, a Apple manteve conversas nos últimos dias com a fabricante de supercarros e dona da escuderia de corridas em Fórmula 1, a McLaren. Citando fontes próximas das duas empresas, o jornal aponta para um…[LEIA MAIS]
As imagens chocaram o mundo. Uma multidão de pessoas que joga Pokémon Go invadiu as ruas da ilha de Odaiba, a 6 km de Tóquio, no Japão, para caçar um pokémon raro que foi avistado no local. Não era um pequeno grupo, foram centenas de japoneses com os olhos grudados em seus smartphones e sem prestarem a atenção a semáforos, cruzamentos ou…[LEIA MAIS]