Gerenciamento de TI - II

Métricas e metodologias
Metodologias e indicadores permitem medir e avaliar a performance dos sistemas, facilitando o gerenciamento da TI.
Padrões de mercado
“O que não se pode medir não se pode gerenciar.” A frase é de Peter Drucker, conceituado professor, consultor e um dos papas da administração moderna, e traduz bem a necessidade, cada vez maior, de que os atuais gestores de TI (Tecnologia da Informação) têm de se servir de metodologias e indicadores que lhes permitam estabelecer objetivos, monitorar os resultados e verificar, de forma objetiva, como e se as metas propostas foram atingidas. A experiência tem mostrado que os antigos manuais de procedimentos utilizados no passado já não atendem mais aos requisitos das empresas.
O turbulento ambiente empresarial, que se apóia na Tecnologia e vive em constante mutação, exige formas mais ágeis e flexíveis de gerenciamento. É dentro dessa nova ótica que ganha força o que se convencionou chamar de governança de TI, que nada mais é do que uma estrutura bem definida de relações e processos que controla e dirige uma organização.


  • O principal foco é permitir que as perspectivas de negócios, de infra-estrutura, de pessoas e de operações sejam levadas em consideração no momento de definição do que mais interessa à empresa, alinhando TI à sua estratégia.

Dentro desse contexto, além das métricas e metodologias que permitem mensurar a capacidade (em uso e em potencial) dos sistemas, ganha cada vez mais importância a adoção de padrões que assegurem e imprimam à infra-estrutura tecnológica corporativa maior flexibilidade. Esses padrões têm um papel crítico no gerenciamento de ambientes heterogêneos, sem os quais não seria possível facilitar a integração e a interoperabilidade entre os diferentes sistemas e soluções.
Atualmente, diante da complexidade e diversidade tecnológica presente nas corporações, já não basta gerenciar desktops, servidores, redes, dados e software de forma isolada. Todos esses componentes precisam interagir uns com os outros, para possibilitar a conectividade e os serviços, e o gerenciamento deve contemplar essas questões. Nesse sentido, as fornecedoras de Tecnologia estão adotando padrões em seus produtos para lhes imprimir maior facilidade de integração e, ao mesmo tempo, para permitir aos usuários um gerenciamento mais eficaz, com menores custos. De sua parte, as empresas usuárias de Tecnologia também começam a prestar atenção a esses detalhes e a escolher produtos com base nisso.
Uma das principais organizações que tem como foco a criação, emprego, manutenção e divulgação de padrões e iniciativas para o gerenciamento de ambientes de TI é a Distributed Management Task Force (DMTF), que reúne em seu rol de afiliados e colaboradores os principais fornecedores de Tecnologia da Informação, além de grupos e entidades de padronização. O resultado dessa união de forças foi a criação de uma série de padrões, entre os quais se destacam o CIM (Common Information Model), WBEM (Web-Based Enterprise Management), DEN (Directory Enabled Networking), ASF (Alert Standard Format) e DMI (Desktop Management Iniciative).


CIM, WBEM, DEN, ASF e DMI
Em termos simples, o CIM pode ser entendido como um modelo conceitual para a descrição dos ambientes computacionais e de rede das corporações – seus componentes, configurações, operações, relacionamentos etc –, sem se referir a uma implementação em particular. Sua utilização visa endereçar o gerenciamento ponto a ponto das estações-clientes para os servidores e pela rede, ou seja, permitir o intercâmbio de informações de gerenciamento entre sistemas e aplicações.
O CIM é composto por duas partes: o CIM Specification, que descreve a linguagem, nomenclatura e técnicas de mapeamento para outros modelos de gerenciamento (como os SNMP MIBs e DMTF MIFs, entre outros), apresentando também o Meta Schema, que é a definição formal do modelo; e o CIM Schema, que fornece uma série de classes com propriedades e associações que propicia o melhor entendimento conceitual do framework, no qual é possível organizar a informação disponível sobre o ambiente gerenciado. O CIM propicia uma semântica padronizada, parecida com um dicionário de termos de gerenciamento, descrevendo os ambientes de TI e de rede da corporação. O modelo foi concebido para auxiliar a minimizar os impactos da introdução de novas tecnologias, facilitando a integração e a interoperabilidade com os demais sistemas já instalados.
Outro padrão desenvolvido pela DMTF é o Web-Based Enterprise Management (WBEM), voltado para acoplar o CIM aos protocolos da Internet como XML e HTTP. A arquitetura do WBEM incorpora o CIM Server e vários provedores de dados de gerenciamento. O CIM Server atua como um corretor (broker) de informação entre os provedores de dados de instrumentação e os clientes/aplicações de gerenciamento. O WBEM pode ser entendido como um set de tecnologias de gerenciamento e de padrões Internet desenvolvidos para unificar a administração de um ambiente corporativo de TI.
Já o Directory Enabled Networks (DEN) foi inicialmente definido como um modelo de informações baseado numa extensão do CIM. Sua função é descrever como utilizar o CIM e um diretório para localizar e acessar informações de gerenciamento. O DEN está focado em comunicar os benefícios, usos e estrutura de um diretório, tido como um componente de um ambiente completo de gerenciamento. O DEN também especifica os mapeamentos low-level LDAP para os releases CIM. Isso permite a criação de um template para troca de informações entre diretórios e possibilita aos fornecedores de Tecnologia compartilhar uma definição comum (mas extensível) tanto de entidades como de sistemas, aplicações e serviços.
Outro padrão é o Alert Standard Format (ASF), que permite ao administrador de TI responder de forma pró-ativa e reativa a problemas ocorridos num sistema em particular, ou em vários sistemas, quando um sistema operacional não estiver presente ou disponível. Historicamente, esses problemas eram resolvidos com o emprego de tecnologias proprietárias e muito caras. Com o ASF é possível reduzir substancialmente esses custos. O ASF é um sistema cliente (ou servidor ou vários sistemas), definido como “cliente”, e um console de gerenciamento que o controla e monitora. Um computador ASF permite realizar o gerenciamento remoto num cenário de sistema operacional ausente e uma série de ações, tais como transmitir mensagens pelo sistema ASF, incluindo alertas de segurança; recebimento e processamento de pedidos remotos de manutenção enviados pela console de gerenciamento; capacidade de descrever as características de um sistema cliente ao console de gerenciamento; e capacidade de descrever o software utilizado para configurar ou controlar o sistema cliente em uma situação em que o sistema operacional estiver presente.
O ASF adiciona importantes medidas de segurança, as quais definem interfaces de alerta e de controle remoto, permitindo o gerenciamento pró-ativo de elementos da rede quando seus sistemas operacionais (OS) estiverem ausentes. A especificação ASF define o Remote Management Control Protocol (RMCP), que permite ao administrador da rede responder a um alerta remotamente em diferentes formas: ativando os sistemas, desativando os sistemas, ou forçando um reboot.
Essa funcionalidade possibilita ao administrador economizar um tempo valioso, na medida em que reduz as visitas ao ambiente de desktop, já que terá a habilidade de solucionar os problemas de forma remota por meio de um console de gerenciamento. O ASF também define um protocolo de quatro fases que inclui descoberta, autenticação, comando de transferência e conclusão. Com essas capacidades de autenticação, é possível ao administrador atender, também de forma remota, as necessidades de segurança que a corporação requer.
O OS-absent (sistema operacional ausente) é definido como um estado do ambiente computacional em que o sistema operacional não está disponível. Isso pode ocorrer por problemas de boot ou erros, ou porque o sistema está num estado de dormência (baixo poder). Com a especificação ASF, o administrador da rede será alertado das falhas em componentes específicos, minimizando a manutenção on-site e, ao mesmo tempo, aumentando a visibilidade e acesso remotos aos sistemas locais. Sem o ASF, os problemas de sistema operacional ausente precisam de uma intervenção manual para poder reativar os sistemas ou forçar um reboot.
As principais fornecedoras de soluções de TI, entre as quais se incluem a Intel, 3Com, HP e IBM, entre outras, desempenharam um papel ativo no desenvolvimento do ASF, trabalhando em conjunto com a DMTF. Essas empresas apostam nesse padrão como forma de assegurar aos respectivos clientes do setor corporativo uma forma mais eficiente de gerenciar seus ambientes distribuídos, auxiliando inclusive a maximizar o uptime (disponibilidade) dos sistemas. De outra parte, as corporações usuárias de Tecnologia já começam a exigir esse padrão nos produtos. Outro padrão desenvolvido pela DMTF é o Desktop Management Interface (DMI) Specification, que estabelece um framework padrão para gerenciar desktops, notebooks e servidores ligados em rede. O DMI foi o primeiro padrão para gerenciamento de desktop e coexiste nos ambientes atuais com o WBEM. A especificação inicial, criada em 1993, envolvia o gerenciamento remoto por uma interface e dispunha de um modelo para filtragem de eventos. A versão 2.0, veiculada em 1996, estendeu a especificação original com a definição de um mecanismo que envia as informações de gerenciamento por meio da rede para clientes não locais ou para um site central.


Metodologias e indicadores
A partir de meados da década de 80, começou-se a perceber que a TI poderia ter um papel mais decisivo na vida das organizações, contribuindo efetivamente para o aumento da competitividade da empresa.
De acordo com o professor José Antão Beltrão Moura, do Centro de Engenharia Elétrica e Informática da Universidade Federal de Campina Grande, a empresa tem uma série de objetivos ao usar a TI, para se tornar digital. Alguns deles são:

  • reduzir custos dos processos de negócio e custos para clientes e fornecedores,
  • diferenciar produtos e serviços,
  • reduzir as vantagens dos competidores,
  • inovar na criação de novos produtos e serviços,
  • além de explorar novos mercados ou novos nichos de mercado.

A empresa digital também precisa promover e gerenciar a expansão regional e global dos negócios, diversificar e integrar produtos e serviços, criar organizações virtuais de parceiros de negócios, desenvolver sistemas que permitam estabelecer relações estratégicas de negócios com clientes, fornecedores e prestadores de serviço. Sua plataforma de TI deve ser construída tendo em vista que é necessário direcionar os investimentos em pessoal, hardware, software e redes de seu uso operacional para aplicações estratégicas. A TI também poderá ser útil no sentido de coletar a analisar dados internos e externos, na construção de uma base estratégica de informação.


Medidas estratégicas
A árdua tarefa de gerenciamento do ambiente de Tecnologia também pode ser facilitada com a adoção de ferramentas, indicadores e metodologias que auxiliam os profissionais a dimensionar o uso efetivo e o potencial de uso dos sistemas. O rol de produtos é vasto e variado. Atualmente, somam-se às soluções conhecidas e tradicionais, como Balanced ScoreCard (BSC), Return on Investment (ROI), TCO (Total Cost of Ownership), Economic Value Added (EVA), e Activity Based Costing (ABC), outros modelos que são empregados pelo setor corporativo, como o CobiT, ITIL e CMM. Em seguida, uma breve descrição das principais ferramentas de medição para auxiliar no gerenciamento empresarial que estão sendo utilizadas pelo mercado.

1) Desenvolvida nos Estados Unidos, a metodologia CobiT – Control Objectives for Information and Related Technology foi criada pelo Information System Audit and Control Association (Isaca) em 1996, a partir de ferramentas de auditoria, funcionando como uma espécie de guia para a gestão da TI nas empresas. O CobiT inclui uma série de recursos como:

  • sumário executivo,
  • framework,
  • controle de objetivos,
  • mapas de auditoria
  • conjunto de processos de trabalho já estabelecidos e empregados pelo mercado, entre os quais se incluem o CMM (Capability Maturity Model), a ISO 9000 (para qualidade), BS7799/ISSO 17799 (normas para segurança da informação) e o ITIL (para gestão do departamento de TI).

O CobiT independe das plataformas de TI adotadas pelas empresas e seu uso é orientado a negócios, no sentido de fornecer informações detalhadas para gerenciar processos. A metodologia é voltada para três níveis distintos:

  • gerentes que necessitam avaliar os riscos e controlar os investimentos de TI;
  • os usuários que precisam assegurar a qualidade dos serviços prestados para clientes internos e externos;
  • auditores que necessitam avaliar o trabalho de gestão da TI e aconselhar o controle interno da organização.

O foco principal é apontar onde devem ser feitas melhorias.

2) Complementar ao CobiT, o ITIL - Information Technology Infraestructure Library é uma biblioteca que descreve as melhores práticas de gestão, especificamente elaborada para a área de TI. Criado no final dos anos 80 pela Central Computing and Telecommunications Agency para o governo britânico, o ITIL reúne um conjunto de recomendações, sendo os principais blocos: suporte de serviços (service support), que inclui cinco disciplinas e uma função; e entrega de serviços (service delivery), com mais cinco disciplinas. Os pontos focados apresentam as melhores práticas para a central de atendimento, gerenciamento de incidentes, gerenciamento de problemas, e gerenciamento financeiro para serviços de TI.

3) Voltado a auxiliar as empresas a melhorar a produtividade dos processos de desenvolvimento de software e a organizar o funcionamento de seus ambientes de TI, o CMM - Capability Maturity Model é uma metodologia que mostra as metas a serem alcançadas, atuando como um modelo de orientação e qualificação dos estágios de maturidade. O CMM define cinco níveis de maturidade para os ambientes de desenvolvimento de software (inicial, repetível, definido, gerenciado e otimizado), sendo que cada um deles é composto por um conjunto de áreas-chave de processo (KPA – Key Process Areas) que descrevem as questões e grandes temas que devem ser abordados e resolvidos para se atingir um determinado nível.


Metodologias tradicionais


Uma das metodologias mais visadas na atualidade é o Balanced ScoreCard, criada no início da década de 90 por Robert Kaplan e David Norton, ambos professores da Harvard University (EUA). Seu emprego permite a uma empresa obter uma base mais ampla para a tomada de decisão, considerando quatro perspectivas:

  • a financeira (segundo a visão dos acionistas),
  • a dos clientes,
  • a de processos internos de negócios,
  • a de inovação.

Na prática, a metodologia consegue mostrar o que é mais crítico, possibilitando direcionar os recursos para os processos que de fato adicionarão valor à empresa. A Tecnologia é uma peça importante para colocar o BSC em funcionamento, mas não é suficiente porque a metodologia interage com a cultura da corporação. Por ser complexa e envolver toda a estrutura empresarial, a adoção desse modelo deve partir da alta direção ou mesmo do próprio presidente da empresa.
O projeto de construção do BSC se aplica a qualquer empresa, independente do ramo de atividade e porte, levando em média de 8 a 12 semanas para ser concluído, mas os benefícios começam a ser percebidos um ano após a implementação. O emprego dessa metodologia possibilita uma visão ampla, geral e integrada da empresa, por meio de diversos painéis. Trata-se de um modelo flexível, que permite ajustes ao longo do tempo.

O Balanced ScoreCard cria uma linguagem para comunicar a missão e a estratégia da empresa a todos os funcionários e utiliza indicadores para informar sobre os vetores de sucesso alcançados no momento e os pretendidos no futuro. Dessa forma, é possível canalizar as energias e os esforços das pessoas para atingir os objetivos de longo prazo.

Outro indicador de desempenho fundamental no setor corporativo é o Return on Investment – ROI, utilizado para apoiar e justificar novos investimentos em tecnologia. O ROI é calculado, considerando o benefício anual proveniente do investimento dividido pelo montante investido, sendo expresso em porcentagem e, portanto, facilmente comparável a outras taxas, por exemplo, à de juros e à de custo do capital. Esse indicador, no entanto, não leva em consideração os riscos envolvidos e nem outras variáveis durante um determinado período. Nesse sentido, não é muito indicado para a avaliação de projetos de longa duração, em que os custos e benefícios venham a passar por grandes alterações com o tempo. Mesmo assim, o ROI é um dos indicadores preferidos pelos principais executivos das empresas na medida em que oferece um valor quantificável e bem definido.

TCO, TVO e CAPT
Uma das grandes preocupações do setor corporativo é verificar até que ponto os gastos estão sendo feitos de forma inteligente e quais os reais ganhos obtidos. O mais importante não é saber quanto se investe em TI, mas ter uma compreensão geral do seu impacto na organização.

Entre as metodologias existentes, uma das mais conhecidas e que se tornou padrão no mundo todo é o TCO -Total Cost of Ownership – desenvolvida em 1987 pelo Gartner Group –, que está evoluindo para um conceito ainda mais amplo batizado de TVO – Total Value of Opportunity.
O TCO começou a ser amplamente considerado à medida que a computação distribuída se desenvolvia e as empresas perceberam que, apesar de o modelo cliente/servidor oferecer uma série de benefícios muito válidos, em contrapartida, trazia uma série de desafios que o modelo centralizado anterior, de certa maneira, não trazia, por ser mais controlado. Entre esses desafios, os principais eram a gestão de custos e a questão da segurança. Inicialmente, a metodologia foi desenvolvida para medir apenas os custos relativos aos PCs. Depois, o conceito amadureceu, sendo expandido para abarcar todo o resto da computação distribuída, como redes LAN (Local Area Network), brigdes, hubs, roteadores, periféricos, etc.

A principal idéia que se procurava passar para o setor corporativo, no final dos anos 80, por meio da análise do TCO, era a de que o custo de se possuir um ativo de TI não se restringia ao valor de aquisição. A quantia paga na compra da solução ou do equipamento representava apenas uma pequena parte de uma equação muito mais complexa, que incluía também os custos relativos à manutenção e uso desse ativo ao longo do tempo. Similar a um plano de contas contábil, o plano de contas do TCO inclui todos os custos de se manter uma solução de TI – tanto os custos diretos e orçados (como aquisição de hardware e software, operação e administração), como os indiretos e não orçados (como tempo de inatividade dos sistemas e operações dos usuários finais).Analisar os custos de TI de forma mais abrangente, no entanto, ainda não é considerado por muitas empresas como totalmente satisfatório. Muitas desejam comprovar os reais benefícios propiciados pela Tecnologia em uso.

Outra metodologia para medir o custo total de propriedade é o Custo Anual por Teclado – CAPT, criado por volta de 1998 pelo CIA/ FGV (Centro de Informática Aplicada da Fundação Getúlio Vargas de São Paulo). O método se caracteriza pela simplicidade e facilidade de aplicação, e consiste, basicamente, em levantar todos os valores direcionados para a área de TI (investimentos e gastos com hardware, software, manutenção, suporte, atualização, treinamento de funcionários e tudo o mais que estiver sob a rubrica de TI) e chegar a um único valor e dividir essa quantia pelo número de “teclados” ou de equipamentos existentes na empresa. A facilidade está justamente no fato de que toda empresa dispõe dessas informações. A proposta do CAPT é de ser um indicador que fornece uma visão bastante clara de como a empresa se encontra naquele momento ou, no mínimo, como está a administração dos recursos de tecnologia.
O CAPT não foi baseado em nenhum modelo preexistente, mas resultou de um trabalho de investigação, feito pela equipe de pesquisadores do CIA, que inclui professores e alunos da Fundação Getúlio Vargas, e que visava identificar quais eram as informações importantes e que precisavam ser elencadas para poder medir, de forma eficiente, os custos da TI.
A metodologia da FGV fornece apenas uma parte da radiografia sobre os custos da TI de uma empresa. Os próprios criadores do método reconhecem a sua limitação. Ele permite obter poucas informações, exigindo o uso de outros indicadores para fornecer uma melhor percepção sobre o direcionamento dos gastos e investimentos em TI.
Especificamente quanto ao uso de aplicativos, existe a metodologia denominada Total Cost of Application Ownership (TCA), que se aplica especialmente para a avaliação dos custos relativos à computação baseada em rede. Com a proliferação do uso de redes nas companhias, muitas aplicações são disponibilizadas para usuários fixos, móveis e para os que se encontram dispersos geograficamente. Os aplicativos devem estar acessíveis por meio de uma grande variedade de opções de conectividade, como redes LAN, WAN, VPN, wireless e Web based, entre outras.
Também o número e a variedade de dispositivos fixos e móveis, como PCs, notebooks, PDAs etc. têm crescido muito nas companhias. O TCA tem como foco a análise dos custos associados aos dispositivos específicos de computação, e leva em consideração como os aplicativos são disponibilizados, a localização dos usuários, as opções e a variedade de conectividade e a variedade de tipos de dispositivos-cliente.

Indicadores tradicionais
Além das metodologias e métricas específicas para a área de TI, os gestores de informática podem se valer de outros sistemas que já vinham sendo utilizados pelas empresas antes do uso maciço da tecnologia. O método Activity Based Costing (ABC), por exemplo, foi adotado inicialmente pelo setor industrial, usado como uma poderosa ferramenta para o gerenciamento dos custos de produção, sendo posteriormente empregado também em outras áreas, como a de serviços.
A idéia básica é a de que todas as atividades de uma empresa voltadas a suportar a produção e distribuição de bens e serviços devem ser consideradas como custos do produto. O ABC integra várias atividades distintas, entre as quais a análise de valor, a análise de processos, controle de custos e controle da qualidade. As abordagens baseadas em atividades geram informações importantes para apoio à decisão, na medida em que fornecem aos gerentes um panorama claro de como se comportam os custos e quais as formas de controlá-los eficientemente para otimizar o desempenho dos negócios.
Alguns gestores também fazem uso do Economic Value Added (EVA), ou Valor Econômico Agregado -, método de desempenho corporativo desenvolvido pela consultoria norte-americana Stern Stewart, na década de 80, que corresponde à subtração do lucro operacional do custo do capital.
Existem ainda outras metodologias e métricas que constituem importantes ferramentas para auxiliar os gerentes de Tecnologia a monitorar e a controlar custos e para avaliar benefícios. O emprego desses sistemas, de forma individual ou combinado, está se tornando obrigatório para as corporações se manterem ágeis e assegurar seu poder de competitividade.


Métricas e metodologias
1 - Qual é o principal foco da governança de TI?
( ) Permitir que haja maior comunicação entre as diferentes áreas da empresa com a equipe de TI
( ) Permitir que as perspectivas de negócios, de infra-estrutura, de pessoas e de operações sejam consideradas para definição do que mais interessa à empresa, alinhando TI à sua estratégia
( ) Permitir que os investimentos de TI acompanhem as tendências do mercado e atendam às necessidades da alta gerência
2 - O que é CobiT?
( ) É uma metodologia criada a partir de ferramentas de auditoria, funcionando como uma espécie de guia para a gestão da TI nas corporações
( ) É uma metodologia para avaliação do desempenho das plataformas de hardware e de redes sem fio
( ) É uma metodologia utilizada para o gerenciamento das áreas de marketing e de produção
3 - O que é Balanced ScoreCard?
( ) É uma metodologia que possibilita uma visão parcial e segmentada da empresa
( ) É uma metodologia aplicada ao treinamento da equipe de TI
( ) É uma metodologia que possibilita a todos os funcionários uma visão ampla, geral e integrada da empresa, através de diversos painéis
4 - Por que o ROI é tido como um dos indicadores preferidos pelos executivos?
( ) Porque oferece um valor quantificável e bem definido
( ) Porque mede os custos ocultos e indiretos da TI
( ) Porque permite direcionar investimentos para projetos de TI de longo prazo
5 - Quais são as metodologias para avaliar os custos da TI que são mais conhecidas e utilizadas pelas empresas no Brasil?
( ) EVA e ABCosting
( ) TCO e CAPT
( ) CobiT e ITIL

Comentários

Postagens mais visitadas deste blog

Redação Ti Nota 10 - Klauss

Prova Discursiva nota 10 - Banca Cespe

Portugues - Orações