• PT
  • EN
  • ES

As 10 tecnologias mais importantes para os próximos anos

Recentemente o Gartner Group, re putada consultoria americana, fez uma lista com as 10 tecnologias que, em sua visão, mais irão impactar o mundo e afetar, para melhor, a vida das pessoas e os negócios nos próximos cinco ou 10 anos. São elas: Energia e TI Verde, Cloud Computing, Metadados, Mashups, Social Software, Real World Web , Fabric-Based Servers, Virtualização, Comunicações Unificadas e Múltiplos Núcleos. Algumas já estão se tornando comuns nas empresas brasileiras. Outras, nem tanto. Nenhuma tem a ver diretamente com engenharia de televisão. Todavia, com a convergência de mídias e de tecnologias, todos têm que acompanhar os assuntos relacionados a TI.

Para clarear o assunto, a Revista da SET, por meio dos autores e da revisão técnica de David Britto, diretor de interatividade da SET, foi a campo para levantar o que são, para que servem e outros aspectos relacionados a cada uma dessas tecnologias. Acompanhe:

Energia e TI Verde
Desde a II Conferência das Nações Unidas sobre Meio Ambiente e Desenvolvimento Humano, a ECO 92 (ou Rio 92), realizada em 1992 no Rio de Janeiro, a discussão sobre o desenvolvimento sustentável e como reverter o processo de degradação ambiental ganhou força em todo o mundo.

Pela sua relevância – foi a maior reunião de chefes de Estado da história da humanidade, pois teve a presença de 120 governantes de países -, a Conferência deflagrou uma série de iniciativas visando o desenvolvimento sustentável.

Demorou, mas essa conscientização che gou à TI. A chamada TI Verde é um grande incentivo para que as empresas reduzam custos com energia, consumo de papéis, etc. Na sua adoção, as corporações miram três alvos, todos voltados para a questão de custo:
1º – Redução de gastos com consumo de energia;
2º – Redução dos custos operacionais, por adotar equipamentos mais modernos;
3º – Melhoria da imagem da empresa.

Curiosamente, o tópico “Responsabilidade Social” não figurou nem mesmo entre os dez primeiros colocados numa pesquisa promovida por outra consultoria, a Frost & Sullivan, em dezenas de empresas latino-americanas.

Os principais agentes da TI Verde são os fornecedores de hardware, pois seu apetite por matéria-prima e energia é fenomenal! É possível perceber a sua magnitude por meio de um trabalho do ensaísta americano Kevin Kelly. Ele calculou o consumo de energia de 27 milhões de servidores de dados e 1,2 bilhão de PCs: juntos, eles consomem 21 bilhões de Watts. Ou, 1,5 vez a energia gerada por Itaipu.

O custo da corrida à tecnologia para o meio ambiente? Daqui a 10 anos, uma parte significativa desses equipamentos estará em aterros dividindo espaço com monitores aposentados, tocadores de MP3 ou celulares. Eles farão companhia aos produtos eletrônicos produzidos nos anos 1990, formando toneladas do chamado ‘e-waste’ – o lixo eletrônico. É um problema ambiental também porque usa muitas substâncias tóxicas, como chumbo e mercúrio.

Felizmente, de modo paulatino e sem a necessidade de um Protocolo de Kyoto para a indústria de TI, surgiu um movimento a favor da TI Verde. Ele passa pela substituição dos antiquados monitores de CRT pelos leves e econômicos de LCD. E vai além: no mundo dos processadores, o recém-lançado chip Intel Core i7 (arquitetura Nehalem), que integra os circuitos de memória e até de vídeo para dentro de si, consome menos energia e matéria-prima para ser produzido. Os processadores multi-core permitem criar infra-estruturas virtuais. Nelas é possível colocar “n” servidores virtuais em um mesmo servidor físico, o que aumenta a eficiência energética destes equipamentos e diminui a complexidade do ambiente, além de outros ganhos no data center.

No Brasil já existem bons exemplos da aplicação da teoria de TI Verde. No Banco Real, um projeto de substituição de computadores gerou economia de 62% no consumo de energia elétrica e de 75% no ar condicionado. “A economia financeira projetada para o período de quatro anos, apenas nas operações de mesa e tesouraria do banco, é de 335,7 mil dólares”, diz Sérgio Constantini, CIO (responsável pela área de tecnologia) do Banco Real.

Outro exemplo clássico é a redução do custo com impressão. É possível mapear atividades meramente burocráticas e adotar processos que funcionem 100% via web, os chamados workflows.

Desde 2006, a Cemig vem aplicando uma política que inclui governança e boas práticas, impressão frente e verso e recarregamento de toner (tinta em pó usada em impressoras). “Somente nos quatro primeiros meses de implantação dessas medidas, a empresa contabiliza 34% de economia de papel”, diz Sérgio Andreotti Tasca, superintendente de TI e Telecom da Cemig. Segundo o Gartner Group, é previsível que, num futuro próximo, os clientes não aceitem mais comprar de empresas pouco respeitadoras do ambiente e que fundos de investimentos evitem colocar dinheiro em companhias que não adotam posturas e políticas de proteção ambiental. A natureza agradece!

Cloud Computing
No universo da TI quase diariamente somos apresentados a novos termos. O “cloud computing” é mais um. Trata-se de uma nova onda, semelhante ao boom da web 2.0 que todos comentam, mas poucos conseguem definir. Com isso, pouco também se consegue perceber ao nosso redor.

É possível definir cloud computing como forma de rodar uma base de serviços “nos ares”, utilizando um espaço já bastante explorado pelas operadoras de telefonia móvel. A idéia é permitir o acesso aos seus dados ou aos dados da sua empresa sem necessariamente estar próximo fisicamente.

Parece algo distante, mas, ao se acessar um webmail como o Gmail, se percebe o conceito já aplicado, pois todas as suas mensagens estão armazenadas em um servidor alheio – não se sabe em qual local -, podendo-se acessá-lo a qualquer hora, de qualquer lugar, por meio da internet. Assim, o computador seria simplesmente uma plataforma de acesso às aplicações localizadas em uma grande nuvem – a internet. Simples assim.

Uma das grandes vantagens que a cloud computing permite é a alta escalabilidade. Se uma empresa contrata um serviço presente na nuvem e precisa aumentar de um para 100 o número de usuários, não é necessário adquirir infra-estrutura, hardware e software para materializar o crescimento. É só aumentar o número previsto no contrato. “A computação em nuvem traz uma vantagem estratégica para a empresa”, disse Carl Claunch, vice- presidente de pesquisas do Gartner.

A Locaweb, que hospeda sites no Brasil, já disponibiliza planos baseados no conceito cloud computing, e também soluções mais robustas como o Dedicated Cloud. Este consiste no aluguel de um parque completo de cloud.

“Com a solução é possível contratar um servidor individual, com ganho na escala. A intenção é proporcionar o mais moderno em tecnologia sem que o usuário precise se preocupar com o ambiente físico”, diz Gilberto Mautner, presidente da Locaweb.

De acordo com Ricardo Chisman, líder da Accenture Technology Consulting, “a grande expectativa dos clientes com este conceito é como transformar o custo fixo da infra-estrutura de TI em custo variável. Essa é a inquietação que está na mente dos CIOs”.

Porém, nem tudo são flores. Nós, brasileiros, com conexões não tão fabulosas quanto às americanas, européias e orientais, vamos poder desfrutar dessa tecnologia?

Não de imediato. Hoje, a fim de navegar em uma aplicação web, é necessário dispor de uma boa banda para atingir uma boa experiência neste campo. Aplicativos online requerem uma conexão minimamente rápida ou uma dose de paciência a quem não tem.

Além do problema conectividade há outros riscos associados ao cloud computing. É o caso da garantia de proteção. No ambiente virtual ela não é a mesma obtida nos ambientes físicos. Isso exige aperfeiçoamento constante, como backup automatizado ou, até mesmo, a virtualização do backup.

Os custos também não são uma beleza. No primeiro momento o armazenamento em cloud parece ser uma excelente opção, pois o custo de mercado é de 25 centavos de dólar por gigabyte ao mês.

Porém, o modelo de custos atual não reflete como o armazenamento realmente funciona. Isso acontece porque sistemas tradicionais de storage (arquivamento) são projetados a fim de reduzir os custos jogando dados pouco acessados para mídias mais baratas, como discos mais lentos, fitas ou sistemas óticos. Fornecedores de cloud computing cobram o mesmo, independentemente da informação armazenada.

A Amazon, por exemplo, cobra pela combinação de informações guardadas, número de acessos e de transferências. Resultado: quanto mais se usa, mais se paga. Segundo George Crump, fundador da Storage Switzerland LLC, com o declínio constante dos custos de antigas formas de storage, armazenar dados na nuvem por um longo período de tempo não é muito vantajoso do ponto de vista econômico.

Em qualquer serviço virtual o momento de maior irritação do usuário ocorre quando o serviço é interrompido na hora em que ele mais precisa. No ambiente cloud, seguindo a Lei de Murphy, é possível garantir que isso vai acontecer.

Metadados
A grande maioria dos usuários já utilizou algum tipo de metadados mesmo não tendo conhecimento do seu significado e até mesmo do seu uso. Isto é normal, até porque a sua própria definição não é um consenso. A mais encontrada é a de que eles representam “dados sobre dados”.

Metadado é uma abstração do dado capaz, por exemplo, de indicar se uma determinada base de dados existe, quais são os atributos de uma tabela e suas características, tais como tamanho, tipo de dado e/ou formato.

Esta definição não consegue descrever todas as utilidades dos metadados. Dentre outras, eles podem identificar um recurso, auxiliar na filtragem de uma busca, facilitar a recuperação de um registro…

O impacto do uso dos metadados representa o nível de maturidade de uma organização frente à sua capacidade de manipular e gerenciar a base de informação. As mais evoluídas são capazes de administrar seus recursos de informação por nível, conhecimento ou sabedoria. Na outra ponta estão aquelas que apenas conseguem administrar dados brutos.

O quadro da página ao lado representa a hierarquia de gerenciamento do conhecimento em um sistema de informação.

Desta forma, pode-se afirmar que os Metadados são o principal componente dentro de um ambiente de Data Warehouse.

Os metadados podem ser empregados em diferentes áreas como bibliotecas digitais, bancos de dados e sistemas de informação geográfica.

Websemântica, uma web “inteligente”, capaz de conceder um significado a um arquivo que será disponibilizado para outros usuários, podendo ser usado como fonte de pesquisa, é outra aplicação. A importância dos metadados para a websemântica está basicamente ligada à facilidade de recuperação dos dados, uma vez que terão um significado e um valor bem definidos.

Nesse sentido, todos os documentos publicados na web devem ser catalogados. A ficha catalográfica de uma obra – os metadados a serem acrescentados a ela – é um registro eletrônico que contém descrições da obra e permitem saber do que se trata sem a vice-presidente de pesquisas do Gartner Group necessidade de ler ou ouvir todo o seu conteúdo. O registro seria uma representação da obra.

Estágio Recurso a ser administrado Definição de Metadado
Dados Valores do dado Informação necessária para administrar o recurso do dado
Informação Valores do dado e o contexto da Informação Informação necessária para adminsitrar o recurso da Informação
Conhecimento Valores do dado, contexto da informação e instrução de regra de negócio. Informação necessária para administrar as regras e políticas de negócio da organização.
Sabedoria Valores do dado, contexto da informação, instrução de regra de negócio executável, monitoração das regras de negócio e regras métricas de avaliação. Informação necessária para adminsitrar o comportamento da organizalçai de acordo com suas regras e políticas de negócio.

A sua utilização é de maior relevância na busca e recuperação de imagens, quando assume um papel importante porque possibilita a descrição de uma imagem, o que, por sua vez, possibilita novas formas de recuperá-las e buscá-las.

Em hospitais as imagens de exames são pesquisadas e recuperadas rapidamente. Isso pressupondo a utilização do padrão “Dublin Core”. A principal vantagem é a velocidade da busca, pois eles são de natureza textual, o que torna a busca mais ágil e precisa caso o padrão de metadados esteja bem elaborado. Assim, a busca por similaridades entre as imagens será otimizada, uma vez que não se necessita comparar imagens, e sim atributos textuais.

Num banco de exames médicos cada imagem carregaria consigo os seguintes elementos:

Elemento Descrição
Criador Médico ou especialista responsável pela elaboração do conteúdo
Data Data de criação da imagem
Editor Instituição responsável pelo recurso
Fonte Referência da procedência do recurso, modalidade de equipamento
Diagnóstico Resultado do diagnóstico
Patologia Nome da doença
Órgão Região do corpo em que foi realizado o exame por Imagem
Posição A posição do órgão em relação à sua imagem: frontal, lateral, entre outros
Tipo Imagem Indicar se a Imagem é referente a Raio X, Tomografia, Ressonância Magnética, etc
Laudo Palavras-chave do laudo

Com os metadados há uma busca por similaridade de imagens mais precisa, já que são descritas com base na experiência dos médicos ao registrar e descrever uma imagem na aplicação. E por meio desta não há necessidade de nenhum processamento em relação à análise da imagem ou sua comparação através de histogramas, pois a indexação por meio dos metadados permite que as comparações sejam realizadas através de consultas SQL simples.

Observa-se também que os metadados representam informações caracterizadoras da informação documentada. Em essência, estes respondem o que, quem, quando, onde e como sobre cada faceta da informação, auxiliando a organização na sua publicação e suporte.

Além disso, em um ambiente marcado pela complexidade e distribuição das informações dentre os diversos componentes da Arquitetura de Data Warehousing, os metadados provêem o relacionamento entre esses componentes e as respectivas informações que armazenam.

As iniciativas pró-metadados enfrentam muitas dificuldades no mundo corporativo, a começar pelo esforço de desenvolvimento de um repositório unificado – não existem soluções de prateleira – capaz de capturar os oriundos de múltiplas fontes. Esses e outros fatores criam obstáculos que envolvem não só o aspecto técnico, mas também o cultural. Para alcançar um bom nível de qualidade, os metadados requerem um método de captura, descrição, manutenção e organização a fim de, então, serem disponibilizados às comunidades técnica e de negócios, onde viram informação útil. E informação é… poder!

Mashups
Quando Antoine Lavoisier – francês criador da química moderna – apresentou ao mundo a lei da conservação de massa não poderia imaginar que, séculos depois, os profissionais de outra área tentassem ajustá-la para “na internet tudo se cria e tudo se transforma”.

Com os chamados mashups essa nova lei é aplicada com sucesso na interação entre conteúdo profissional e amador. Um mashup é um website ou uma aplicação web que usa conteúdo de mais de uma fonte para criar um novo serviço completo.

O termo mashup deriva da prática do hiphop de mixar trechos de música e é empregado por diversos sites com o objetivo de combinar informações de várias fontes num único endereço. No ambiente corporativo, esse recurso traz uma visualização fácil e rápida dos dados espalhados pela empresa e até fora dela, com informações vindas, por exemplo, de sites na web.

Os mashups são aplicações online resultantes da soma de dois ou mais conteúdos ou serviços que, juntos, oferecem uma nova função ao usuário. Tecnicamente, o propulsor para a febre dos mashups é um velho conhecido de qualquer usuário: as APIs. Outros métodos de codificação de conteúdo para mashups incluem hiperlinks como (http://en.wikipedia.org/wiki/Web_feed); RSS (http://pt.wikipedia.org/wiki/RSS); Atom (http://pt.wikipedia.org/wiki/Atom); Javascrit (http://pt.wikipedia.org/wiki/Javascript); e Widgets (http://pt.wikipedia.org/wiki/Widgets).

Assim como as ferramentas da Wikipedia revolucionaram a publicação online, os mashups estão revolucionando o desenvolvimento web ao permitir a qualquer um combinar dados de fontes como http://pt.wikipedia.org/wiki/ EBay, Correios, Google, MS Windows Live e Yahoo! de maneiras inovadoras.

Em sua maioria, as informações são acessadas por feeds de RSS que, por meio de ferramentas desenvolvidas pelo programador ou oferecidas pelos portais, mixam apenas as informações de interesse do usuário.

Feeds de RSS são fundamentais no desenvolvimento de mashups porque separam o conteúdo em um canal independente – sem isto, seria impossível integrar automaticamente ao mapa da sua cidade, por exemplo, suas fotos pessoais.

O mashup corporativo segue filosofia semelhante à do modelo SOA, em que as aplicações são quebradas em componentes de serviços, que, por sua vez, podem ser combinados e misturados com outros serviços de acordo com as necessidades do negócio. Essa abordagem pode revolucionar o modelo de desenvolvimento de software adotado até agora nas empresas.

O objetivo é permitir aos usuários finais, não técnicos, criar aplicações específicas rapidamente, rapidamente, com o mínimo de treinamento ou conhecimento de linguagens de programação. Eles poderão arrastar e soltar vários serviços na web – como notícias, previsão do tempo e boletins sobre o trânsito -, e mesclá-los com o conteúdo existente na empresa.

Ao contrário da figura “daninha” normalmente conferida aos mashups, com sua constante transformação de conteúdo alheio, eles encarnam o ditado de Lavoisier para a internet como seu principal mérito.

Social Software
Com a expansão e democratização do acesso à internet, surgiu um amplo debate sobre o seu potencial interativo, em que o foco se volta ao internauta.

Neste contexto observa-se a proliferação de ferramentas e serviços para incentivar a interação social, os chamados social softwares, baseados no conceito de Web 2.0.

A idéia central é que todo internauta, mesmo o menos informado sobre linguagens e códigos de publicação de conteúdo online, torne- se apto a participar de um dos mais de 100 sites de redes sociais espalhados pela internet ou possa editar e produzir seu próprio blog, além de facilitar a interação de grupos.

Grande parte deste movimento deve ser creditado aos esforços de Clay Shirky, o responsável pela organização do evento Social Software Summit, realizado em novembro de 2002.

Atualmente na web, as redes sociais estão presentes em sites de relacionamento online. Os exemplos mais populares são Orkut, Facebook e MySpace.

O Orkut e outros sites do gênero (MySpace, Facebook, Bebo, Hi5, etc), também permitem a publicação de outras mídias como, por exemplo, fotos e vídeos.

Outra categoria de software que se enquadra no social software é a daqueles direcionados à troca de mensagens instantâneas (Instant Messaging). Há vários, alguns com grande apelo entre os jovens como, por exemplo, o MSN e outros com abordagem, digamos, corporativa, caso do Skype.

Neste último, por trás do apelo de troca de mensagens instantâneas, montou-se um modelo de negócio que reduz o custo de ligação telefônica entre 20 e 80%.

No Skype, as ligações “telefônicas” entre computadores são grátis. Há ainda a possibilidade de ligação entre o computador e um telefone não a um computador (Skypeout) e, ainda, o serviço onde o contratante do serviço ganha um número de telefone fixo para receber ligações utilizando sua conexão internet (Skypein).

Nos dois cenários é utilizada uma conexão à internet banda larga, com preços muito mais atraentes do que os das empresas de telefonia convencional, para telefones fixos e celulares do Brasil e quase duas centenas de países do mundo.

Há ainda as chamadas commercial social networks, que têm por objetivo construir um relacionamento entre o usuário e a marca. Nesta rede os usuários postam suas opiniões sobre o produto, oferecem idéias para torná-lo melhor e, obviamente, comentam suas falhas e relatam seus percalços com o serviço de assistência técnica.

Nesta proposta, a corporação habilita seus clientes a participar da melhoria da cadeia de valor do produto e na outra ponta, o cliente se sente importante para o fabricante e amparado por um canal de comunicação democrático. Um exemplo é o site mantido pela Dell Computers (http://www.ideastorm.com/).

Em síntese podemos dizer que o social software é um programa que garante o suporte, o prolongamento ou a obtenção de algum valor adicional do comportamento social humano como quadro de mensagens, compartilhamento de gosto musical, de fotos, envio de mensagens instantâneas, mala direta de e-mails, rede de relacionamento social.

Real-World Web
Temos de confessar que inicialmente estávamos diante de mais uma buzzword, mas, adentrando ao assunto, descobrimos que a realidade está muito, mas muito próxima de nossas vidas.

A Real-World Web se propõe a oferecer interação entre os mundos real e virtual que até aqui se mantinham separados. Como assim?

A novidade de maior impacto dentro da Real-World Web será a de Locationaware technologies, que utilizam o GPS para localizar uma pessoa por meio de um celular, handheld ou outro dispositivo e, ainda, Locationaware applications, tendência rumo ao uso de dispositivos com GPS embutido.

Há um número considerável de empresas que já se preparam para desenvolver aplicações baseadas nessas tecnologias de forma a melhorar a força de vendas e a logística dos negócios.

Pense numa aplicação, hospedada num smartphone , que poderá fazer uma pesquisa nas páginas amarelas da cidade onde o usuário está e oferecer uma lista de pizzarias bem próximas a ele.

Outro uso imaginável é receber um anúncio popup da nova rede de cafeteria instalada em sua cidade quando o potencial cliente estiver a alguns quarteirões de distância da loja. Isso é um exemplo de informação contextual orientado à localização.

Na opinião de Claunch, do Gartner, isso traz uma nova oportunidade de ação para as empresas: a de levar a usar a internet em situações pontuais do dia-a-dia. Para definir melhor, Claunch cita um exemplo: “Um guia de turismo pode estar ligado a um GPS com acesso à internet. Na hora em que o turista passa num determinado ponto, o GPS reconhece e o guia envia textos ou áudios a respeito dos pontos de interesse daquele local”.

O maior lançamento de 2008 nesta área pode ser o advento do Android, um sistema operacional de código-fonte aberto implementado pela Google com o apoio de grandes operadoras de telefonia móvel por meio da Open Handset Alliance.

Esta organização tem como objetivo incentivar o desenvolvimento de aplicações que irão transformar o telefone celular num mini-computador portátil, cuja função “telefone” será secundária.

O Google cita possíveis mashups para atender a demanda por serviço como, por exemplo, a combinação de uma versão móvel do Google Maps com um serviço mostrando onde estão os seus amigos, sugerindo um local de encontro com base nas informações contextuais.

A Real-World Web se tornará viável à medida em que mais e mais usuários tenham acesso a recursos de banda larga móvel. A partir daí se popularizarão soluções atreladas à localização, personalização de serviços, telepresença e análises em tempo real.

Fabric-Based Servers
Considerada uma das dez tecnologias mais importantes para 2009-2014, segundo o Gartner, os denominados Fabric- Based Servers se referem a uma infraestrutura em que os recursos passam a ser entendidos como um pool e capacidades de memória, processamento e entrada/saída se combinam de acordo com as necessidades dos negócios.

Ainda segundo o Gartner Group, os blades (um servidor completo, compactado para caber mais em um rack, economizar espaço e recursos de energia de um data center) que conhecemos hoje serão substituídos pelos Fabric-Based Servers. Em vez de comprar uma lâmina completa, as empresas terão várias partes de uma máquina (processador, memória e disco) e mostrarão de acordo com a necessidade do negócio.

Virtualização
Virtualização é a tecnologia capaz de fazer um único servidor rodar diversos sistemas operacionais. Era uma prática comum entre as empresas e ainda é em muitos casos – utilizar servidores separados para hospedar aplicações críticas, como servidores de email, bancos de dados e softwares de gestão.

O problema deste modelo é o mau aproveitamento dos recursos das máquinas – em média, os servidores utilizam somente de cinco a 10% da sua capacidade, segundo estimativa da empresa de software para virtualização VMware, a líder de mercado.

Com o objetivo de reduzir os custos de administração e manutenção e centralizar o trabalho dos gerentes de tecnologia, as empresas apostaram em um novo conceito: utilizar equipamentos mais robustos, com mais recursos de processamento e espaço em disco, para hospedar as diversas aplicações da companhia, prática batizada de consolidação de servidores.

Isso leva a ganhos em administração, energia e espaço. Porém, as aplicações de uma empresa nem sempre rodam sobre a mesma plataforma e muitas vezes exigem sistemas operacionais diferentes ou versões distintas de um mesmo sistema, problema que a virtualização vem resolver.

O conceito de virtualização de servidores baseia-se na configuração so-bre um determinado hardware de um software capaz de criar ambientes de computação simulados e simultâneos (máquinas virtuais), nos quais sistemas clientes podem ser executados de maneira isolada e independente, como se estivessem diretamente instalados sobre equipamentos dedicados.

Freqüentemente muitos sistemas clientes podem ser hospedados em um mesmo hardware, e seu número é condicionado apenas aos recursos do equipamento base, que serão compartilhados entre si.

Essa capacidade de consolidação dos sistemas representa uma economia de investimento em recursos físicos – incluindo espaço disponível em data centers centers – e aumenta a atratividade da virtualização no mercado atual de TI.

As plataformas operacionais, compartilhando o mesmo hardware, não requerem compatibilidade entre si, e freqüentemente há coexistência de sistemas distintos. A exigência se restringe à necessidade de acesso dos sistemas clientes aos recursos de hardware do equipamento original (como, por exemplo, discos rígidos, unidades de backup e adaptadores de rede).

Outro fator que contribui para a popularidade das tecnologias de virtualização é a capacidade de realocação de um sistema cliente em um novo equipamento, não necessariamente similar ao original. Essa portabilidade se revela útil em cenários de recuperação de desastres, quando se torna possível transportar serviços críticos entre sites de operação.

Um novo uso da virtualização que promete ganhar força é a virtualização dos PCs de uso pessoal dentro da empresa. Nesse caso, uma máquina virtual pode ser criada para uso corporativo, com todas as regras de segurança necessárias, e outra máquina, no mesmo PC, pode ser acessada quando o usuário precisar usar para fins pessoais.

Quanto às tendências de mercado, o Instituto Gartner prevê quatro milhões de máquinas virtuais em produção até o final de 2009. Na Índia, pólo em ascensão de desenvolvimento de software, há previsão de que servidores virtuais alcancem uma participação de 45% no mercado em 2009, mais do dobro dos atuais 22%.

Comunicações Unificadas
O tema comunicações unificadas compreende um modelo de aprimoramento de infra-estrutura que permite a integração de diferentes formas de comunicação.

Temos vários números de telefone, vários endereços de email, id’s, etc., e isso torna as coisas mais complexas, além de consumir mais tempo da rotina de trabalho. Essa tecnologia visa agregar todos esses tipos de comunicação em um único canal. A convergência de todos os meios de comunicação é inevitável. A tendência é que Voz, Rede, Storage e Vídeos passem a dividir e serem acessados a partir de um mesmo espaço.

O princípio por trás de um projeto destes visa otimizar o fluxo de processos de negócio e canais de comunicação, eliminando, quando possível, a dependência de determinados dispositivos ou serviços, e reduzindo as perdas de tempo decorrentes de sistemas ineficientes.

Uma aplicação clássica desta modalidade de tecnologia é a substituição das centrais telefônicas tradicionais (PABX) pela tecnologia VoIP, na qual utilizamos transporte de voz através de redes de dados, e sua evolução, a Telefonia sobre IP. Ambas aplicações representam uma ruptura com serviços tradicionais de mercado. Ferramentas como o software Skype são exemplo da popularidade desta tecnologia.

O conjunto de soluções de comunicações unificadas difere de outros modelos recentes de comunicação, em sua ênfase por estabelecer o canal entre emissor e destinatário em tempo real (em contraponto a diferentes tecnologias de entrega de mensagens, por exemplo).

Dentre as aplicações diretas, destaca- se o estabelecimento de ambientes de colaboração, onde as comunicações entre componentes de um projeto distribuídos em localidades diferentes podem ser incrementadas por meio de videoconferência, por exemplo. Tecnologias afins são aplicadas também quando ligações telefônicas são endereçadas ao notebook de um executivo que está fora da empresa, através de softphones.

Outra tecnologia emergente é a telepresença, em que áudio e vídeo de alta definição são transmitidos a ambientes de conferência, simulando a participação presencial em reuniões com participantes de localidades geográficas distintas. É uma evolução no conceito tradicional de vídeo-conferência.

Previsões apontam que o mercado mundial de serviços de comunicação integrada saltará dos atuais 8,8 bilhões de dólares para 24,2 bilhões de dólares em 2012. De acordo com o Gartner, até 2010, 80% das empresas integrarão as comunicações (voz e emails) em suas aplicações e processos.

O mercado brasileiro oferece oportunidades nesse nicho de TI. Segundo estimativas recentes, há cerca de 2.000 empresas no país com potencial para implantar projetos dessa natureza, embora haja restrição técnica importante para esse salto: 70% da rede de telefonia ainda é analógica.

Múltiplos Núcleos
O processador multi-core é o novo passo da tecnologia de processadores. Ele é capaz de prover um processamento com baixo custo/benefício, melhor que os processadores de um núcleo. Com os processadores de núcleo múltiplo podem ser realizadas várias tarefas ao mesmo tempo – é possível assistir a um vídeo, gravar um DVD e navegar na internet, simultaneamente, quase sem perda de performance.

No processador de múltiplos núcleos é possível também executar tantas tarefas quanto o número de núcleos existentes, ou seja, um processador de quatro núcleos pode executar quatro tarefas ao mesmo tempo. Teoricamente, podemos adicionar “n” núcleos a um processador, permitindo que “n” tarefas sejam executadas ao mesmo tempo e, desta forma, abrir um grande campo para o desenvolvimento de microcomputadores com a capacidade de processamento dos grandes computadores.

O que vem massificando esta tecnologia é o baixo custo de manter um processador com dois núcleos, por exemplo, no seu computador em casa. Tanto a Intel quanto a AMD utilizaram tecnologias já existentes para desenvolvimento dos seus processadores de múltiplos núcleos. A Intel utilizou o seu Pentium 4 e adicionou mais um núcleo e mais uma memória cache L2. Já a AMD, em seu dual-core, utiliza dois processadores K8.

Os principais desafios a vencer são os sistemas operacionais e as aplicações, que devem ser escritas para a utilização de todos os recursos do ambiente proporcionado pelos processadores de núcleo múltiplo. Existem vários programas com esta finalidade. Exemplos: Thread Checker e Thread Profiler, da Intel.

Para padronizar, a indústria de hardware e software criou uma associação a fim de discutir e criar padrões na utilização de processadores multi-core, a The Multicore Association – pelo link http://www.multicore-association.org.

Em março de 2008 foi finalizado o projeto Multicore Communication API (MCAPI) Specification. Atualmente um grupo de trabalho vem desenvolvendo o multicore software programming, um guia que ajudará a indústria no desenvolvimento e na compreensão das questões referentes à programação com processadores de núcleos múltiplos.

Revista da SET – ed. 104