Os desafios da infraestrutura de tecnologia no mundo mobile

O painel “Novas Arquiteturas e ciclos de vida de software e hardware”, que aconteceu hoje na CIAB FEBRABAN, debateu os principais desafios enfrentados pelos desenvolvedores de sistemas, com foco em dispositivos móveis e grandes números de usuários. Leonardo Frollini, arquiteto de sistemas da IBM, mediou o painel.

Novas demandas 

Segundo Manoel Vaz, superintendente de Tecnologia do Santander, a evolução das plataformas transformou as demandas dos clientes, exigindo cada vez mais dos profissionais de tecnologia. O processo de descentralização da computação ao longo da história tornou essa exigência ainda mais desafiadora.

Os aplicativos representam a vanguarda dessa tendência. “Os aplicativos estão revolucionando a forma de fazer negócios. Eles são simples e estão ligados à mobilidade”, afirma. E é justamente a mobilidade, para Vaz, que está “puxando os negócios”.

A computação na nuvem, por outro lado, auxilia a tecnologia a fazer frente a essas novas demandas. Segundo Vaz, 93% da computação do banco Santander acontece na nuvem, embora trate-se de uma “nuvem interna”.

Os ciclos de desenvolvimento, por esses motivos, se tornaram cada vez mais complexos. Ao mesmo tempo, o número de usuários aumentou, o que tornou o processo ainda mais delicado. Por isso, Vaz considera vital que existam estratégia e planejamento.

Um problema de seguranca em uma aplicação oferecida a milhões de usuários pode causar enorme contratempo à equipe de desenvolvimento, por exemplo. Nessa conjuntura, é necessária uma união entre planejamento e estabilidade, por um lado, e desenvolvimento e inovação, por outro.

Complexidade histórica 

A grande variedade de sistemas e plataformas computacionais disponíveis no mercado, e a necessidade de integrá-las e fazê-las se comunicarem entre si representa um dos grandes desafios da computação atual na opinião de Donaldo Dagnone, Arquiteto do Citi Brasil.

Retomando a origem histórica dessa situação, Dagnone comentou sobre o modelo de mainframe, que embora esteja há mais de 50 anos no mercado, tem “características fenomenais” que justificam sua presenca: sua estabilidade, compatibilidade e seguranca. O processamento centralizado, a computação exclusivamente corporativa e o conjunto de vendors de software básico e hardware bastante limitado, no entanto, são aspectos negativos desse modelo.

Microcomputadores e computadores pessoais, que se tornaram mais populares ao longo dos anos 70, 80 e 90, permitiram então a computação pessoal e distribuída, com as facilidades decorentes: planilhas de cálculo, processadores de texto e bases de dados. As interfaces, ao mesmo tempo, se tonaram mais simples e acessiveis.

Por outro lado, a grande disponibilidade de fabricantes de software e hardware dificultam a integração, a seguranca, a compaibilidade e a estabilidade. O modelo atual de computação é enormemente endividado com essa época da história da computação.

O fato de que, em muitos ambientes organizacionais, esses dois modelos de computação coexistam tornam necessário a existência de uma grande quantidade de sistemas mid-range, que permitem fazer a comunicação entre computadores desses modelos diferentes.

Em função disso, os ambientes digitais de trabalho se tornaram bem mais complexos. “É difícil integrar esses mundos”, analisa. Essa situação é especialmente drástica no ambiente bancário, que lida com informações pessoais e importantes.

Cloud Computing 

A computação na nuvem aparece como uma espécie de solução para esse desafio. “Preciso criar e modificar minhas aplicações de maneira rápida, e que se integre bem com outras plataformas que meu cliente tenha, e os modelos de Cloud Computing e Software as a Service me permitem essa flexibilidade”, comenta Dagone.

É necessario, no entanto, que as aplicações sejam escritas com as particularidades do modelo 'Software as a Service' em mente. Aplicações ligadas a outros momentos da computação precisam ser reescritas para funcionar da melhor maneira neste novo ambiente.

A “virtualização da computação” também faz com que a compra de componentes físicos de computação se torne menos necessária. O ciclo clássico de “sistema novo, redimensionamento de hardware” também perde o sentido.