Como anda a regulamentação contra perigos da IA generativa?

Como anda a regulamentação contra perigos da IA generativa?

À medida que a IA generativa revoluciona a tecnologia, os governos de todo o mundo estão tentando criar regulamentações que incentivem seus benefícios e, ao mesmo tempo, minimizem riscos como preconceito e desinformação.

IA generativa

Desde que a IA generativa explodiu na consciência pública com o lançamento do ChatGPT no final de 2022, os apelos para regular a tecnologia a fim de impedir que ela causasse danos indevidos aumentaram em todo o mundo. As apostas são altas. Parece coisa saída dos livros de Isaac Asimov, mas não é. Inclusive, líderes de tecnologia assinaram uma carta pública aberta dizendo que, se os funcionários do governo errarem, a consequência pode ser a extinção da raça humana.

Enquanto a maioria dos consumidores está apenas se divertindo testando os limites de grandes modelos de linguagem como o ChatGPT, várias histórias preocupantes circularam sobre a tecnologia inventando supostos fatos. Isso, além de fazer sugestões inapropriadas aos usuários, como quando uma versão do Bing com IA disse a um repórter do New York Times para se divorciar de sua esposa.

Preocupações comuns

Membros da indústria de tecnologia e especialistas jurídicos também observam uma série de outras preocupações, incluindo:

  • a capacidade da IA ​​generativa de aprimorar os ataques de agentes de ameaças às defesas de segurança cibernética;
  • possibilidade de violações de direitos autorais e privacidade de dados – já que grandes modelos de linguagem são treinados em todos os tipos de informações;
  • o potencial de discriminação à medida que os humanos codificam seus próprios preconceitos em algoritmos.

Possivelmente, a maior área de preocupação é que os programas de IA generativa são essencialmente de autoaprendizagem, demonstrando capacidade crescente à medida que ingerem dados e que seus criadores não sabem exatamente o que está acontecendo dentro deles. Isso pode significar, como disse o ex-líder de IA do Google, Geoffrey Hinton, que “a humanidade pode ser apenas uma fase passageira na evolução da inteligência e que os sistemas de IA podem desenvolver seus próprios objetivos sobre os quais os humanos nada sabem”.

Tudo isso levou os governos de todo o mundo a pedir regulamentos de proteção. Mas, como acontece com a maioria das regulamentações de tecnologia, raramente há uma abordagem única para todos. Afinal, há diferentes governos procurando regular a IA generativa da maneira que melhor se adapte ao seu próprio cenário político.

Cada país faz seus próprios regulamentos

“[Quando se trata de] questões de tecnologia, embora cada país seja livre para fazer suas próprias regras, no passado, o que vimos é que houve alguma forma de harmonização entre os EUA, a UE e a maioria dos países ocidentais”, disse Sophie Goossens, sócio do escritório de advocacia Reed Smith especializado em questões de IA, direitos autorais e propriedade intelectual. É raro ver uma legislação que contradiz completamente a legislação de outra pessoa.”

Embora os detalhes da legislação apresentada por cada jurisdição possam diferir, há um tema abrangente que une todos os governos que até agora delinearam propostas: como os benefícios da IA ​​podem ser realizados minimizando os riscos que ela apresenta para a sociedade. De fato, os legisladores da UE e dos EUA estão elaborando um código de conduta de IA para preencher a lacuna até que qualquer legislação seja aprovada legalmente.

IA generativa é um termo abrangente para qualquer tipo de processo automatizado que usa algoritmos para produzir, manipular ou sintetizar dados, geralmente na forma de imagens ou texto legível por humanos. É chamado generativo porque cria algo que não existia anteriormente. Não é uma nova tecnologia e as conversas sobre regulamentação também não são novas.

Os primórdios

A IA generativa existe (pelo menos em uma forma muito básica de chatbot) desde meados da década de 1960, quando um professor do MIT criou o ELIZA, um aplicativo programado para usar correspondência de padrões e metodologia de substituição de linguagem para emitir respostas modeladas para fazer os usuários se sentirem como eles estavam conversando com um terapeuta. No entanto, o recente advento da IA ​​generativa no domínio público permitiu que pessoas que talvez não tivessem acesso à tecnologia antes criassem conteúdo sofisticado sobre praticamente qualquer tópico, com base em alguns prompts básicos.

À medida que os aplicativos generativos de IA se tornam mais poderosos e predominantes, há uma pressão crescente por regulamentação.

“O risco é definitivamente maior porque agora essas empresas decidiram lançar ferramentas extremamente poderosas na internet aberta para todos usarem, e acho que definitivamente há um risco de que a tecnologia possa ser usada com más intenções”, disse Goossens.

Primeiros passos em direção à legislação de IA generativa

Embora as discussões da Comissão Europeia em torno de um ato regulatório de IA tenham começado em 2019, o governo do Reino Unido foi um dos primeiros a anunciar suas intenções, publicando um white paper em março deste ano que delineava cinco princípios que deseja que as empresas sigam: segurança, proteção, e robustez; transparência e explicabilidade; justiça; prestação de contas e governança; e contestabilidade e reparação.

Em um esforço para evitar o que chamou de “legislação pesada”, no entanto, o governo do Reino Unido pediu aos órgãos reguladores existentes que usem os regulamentos atuais para garantir que os aplicativos de IA cumpram as diretrizes, em vez de redigir novas leis.

Desde então, a Comissão Europeia publicou o primeiro rascunho de sua Lei de IA, que foi adiada devido à necessidade de incluir disposições para regulamentar as aplicações de IA generativa mais recentes. O projeto de legislação inclui requisitos para modelos generativos de IA para mitigar razoavelmente os riscos previsíveis à saúde, segurança, direitos fundamentais, meio ambiente, democracia e estado de direito, com o envolvimento de especialistas independentes.

Proposta do Reino Unido

A legislação proposta pela UE proibiria o uso de IA quando ela pudesse se tornar uma ameaça à segurança, aos meios de subsistência ou aos direitos das pessoas. Seria o caso de estipulações sobre o uso de inteligência artificial tornando-se menos restritivas com base no risco percebido que poderia representar para alguém entrando em contato com ele. Por exemplo, interagir com um chatbot em um ambiente de atendimento ao cliente seria considerado de baixo risco. Os sistemas de IA que apresentam riscos tão limitados e mínimos podem ser usados ​​com poucos requisitos. Os sistemas de IA que apresentam níveis mais altos de viés ou risco, como os usados ​​para sistemas de pontuação social do governo e sistemas de identificação biométrica, geralmente não serão permitidos, com poucas exceções.

No entanto, mesmo antes da finalização da legislação, o ChatGPT em particular já havia sido examinado por vários países europeus individuais por possíveis violações de proteção de dados do GDPR. O regulador de dados italiano inicialmente baniu o ChatGPT por supostas violações de privacidade relacionadas à coleta e armazenamento de dados pessoais pelo chatbot. No entanto, restabeleceu o uso da tecnologia depois que OpenAI, criador do ChatGPT, apoiado pela Microsoft, esclareceu sua política de privacidade e o tornou mais acessível, e ofereceu uma nova ferramenta para verificar a idade dos usuários.

Outros países europeus, incluindo França e Espanha, apresentaram reclamações sobre o ChatGPT semelhantes às emitidas pela Itália, embora nenhuma decisão relacionada a essas queixas tenha sido tomada.

Diferentes abordagens para a regulamentação

Toda regulamentação reflete a política, a ética e a cultura da sociedade em que você está, disse Martha Bennett, vice-presidente e principal analista da Forrester. Ela observou que, nos EUA, por exemplo, há uma relutância instintiva em regulamentar, a menos que haja uma pressão tremenda fazer isso, enquanto na Europa há uma cultura muito mais forte de regulamentação para o bem comum.

“Não há nada de errado em ter uma abordagem diferente, porque sim, você não quer sufocar a inovação”, disse Bennett. Aludindo aos comentários feitos pelo governo do Reino Unido, Bennett disse que é compreensível não querer sufocar a inovação, mas ela não concorda com a ideia de que, ao confiar amplamente nas leis atuais e ser menos rigoroso do que a Lei de IA da UE, o Reino Unido o governo pode fornecer ao país uma vantagem competitiva – especialmente se isso ocorrer às custas das leis de proteção de dados. Se o Reino Unido ganha uma reputação de jogar rápido e solto com dados pessoais, isso também não é apropriado”, disse ela.

Enquanto Bennett acredita que diferentes abordagens legislativas podem ter seus benefícios, ela observa que os regulamentos de IA implementados pelo governo chinês seriam completamente inaceitáveis ​​na América do Norte ou na Europa Ocidental.

De acordo com a lei chinesa, as empresas de IA serão obrigadas a enviar avaliações de segurança ao governo antes de lançar suas ferramentas de IA ao público, e qualquer conteúdo gerado por IA generativa deve estar alinhado com os principais valores socialistas do país. O descumprimento das regras resultará em multas para os fornecedores, suspensão dos serviços ou investigações criminais.

Os desafios da legislação de IA generativa

Embora vários países tenham começado a elaborar regulamentos de IA, esses esforços são prejudicados pela realidade de que os legisladores precisam constantemente acompanhar as novas tecnologias, tentando entender seus riscos e recompensas.

“Se nos referirmos à maioria dos avanços tecnológicos, como a internet ou a inteligência artificial, é como uma faca de dois gumes, pois você pode usá-la para fins legais e ilegais”, disse Felipe Romero Moreno, professor principal da Universidade da Faculdade de Direito de Hertfordshire, cujo trabalho se concentra em questões legais e regulamentação de tecnologias emergentes, incluindo IA.

Os sistemas de IA também podem causar danos inadvertidamente, uma vez que os humanos que os programam podem ser tendenciosos. Dessa forma, os dados com os quais os programas são treinados podem conter viés ou informações imprecisas. “Precisamos de inteligência artificial treinada com dados imparciais”, disse Romero Moreno. “Caso contrário, as decisões tomadas pela IA serão imprecisas e discriminatórias.”

A responsabilidade por parte dos fornecedores é essencial, disse ele, afirmando que os usuários devem ser capazes de contestar o resultado de qualquer decisão de inteligência artificial e obrigar os desenvolvedores de IA a explicar a lógica ou o raciocínio por trás do raciocínio da tecnologia. (Um exemplo recente de um caso relacionado é uma ação coletiva movida por um homem dos EUA que foi rejeitado em um emprego porque o software de vídeo AI o julgou não confiável.)

As empresas de tecnologia precisam tornar os sistemas de inteligência artificial auditáveis ​​para que possam estar sujeitos a verificações independentes e externas de órgãos reguladores – e os usuários devem ter acesso a recursos legais para contestar o impacto de uma decisão tomada por inteligência artificial, sempre com supervisão final. a um humano, não a uma máquina, disse Romero Moreno.

Direitos autorais são um grande problema para aplicativos de IA

Outra grande questão regulatória que precisa ser navegada são os direitos autorais. A Lei de IA da UE inclui uma disposição que faria com que os criadores de ferramentas de IA generativas divulgassem qualquer material protegido por direitos autorais usado para desenvolver seus sistemas.

“Os direitos autorais estão em toda parte, então, quando você tem uma quantidade gigantesca de dados em algum lugar em um servidor e vai usar esses dados para treinar um modelo, é provável que pelo menos alguns desses dados sejam protegidos por direitos autorais, ” Goossens disse, acrescentando que as questões mais difíceis de resolver serão em torno dos conjuntos de treinamento nos quais as ferramentas de IA são desenvolvidas.

Quando esse problema surgiu pela primeira vez, os legisladores de países como Japão, Taiwan e Cingapura abriram uma exceção para material protegido por direitos autorais que chegasse aos conjuntos de treinamento, afirmando que os direitos autorais não deveriam impedir os avanços tecnológicos.

No entanto, disse Goossens, muitas dessas exceções de direitos autorais já têm quase sete anos. A questão é ainda mais complicada pelo fato de que na UE, embora existam essas mesmas exceções, qualquer pessoa que seja detentora de direitos pode optar por não ter seus dados usados ​​em conjuntos de treinamento.

Atualmente, como não há incentivo para incluir seus dados, muitas pessoas estão optando por não participar, o que significa que a UE é uma jurisdição menos desejável para os fornecedores de IA operarem.

No Reino Unido, existe atualmente uma exceção para fins de pesquisa, mas o plano de introduzir uma exceção que inclua tecnologias comerciais de IA foi descartado, com o governo ainda para anunciar um plano alternativo.

O que vem a seguir para a regulamentação da IA generativa?

Até agora, a China é o único país que aprovou leis e iniciou processos relacionados à IA generativa – em maio, as autoridades chinesas detiveram um homem no norte da China por supostamente usar o ChatGPT para escrever notícias falsas.

Em outros lugares, o governo do Reino Unido disse que os reguladores emitirão orientações práticas para as organizações, definindo como implementar os princípios descritos em seu livro branco nos próximos 12 meses, enquanto a Comissão da UE deve votar em breve para finalizar o texto de sua IA. Agir.

Em comparação, os EUA ainda parecem estar nos estágios de apuração de fatos, embora o presidente Joe Biden e a vice-presidente Kamala Harris tenham se reunido recentemente com executivos das principais empresas de IA para discutir os perigos potenciais da IA.

Inclusive, dois comitês do Senado também se reuniram com especialistas do setor, incluindo o CEO da OpenAI, Sam Altman. Falando aos legisladores, Altman disse que a regulamentação seria “sábia” porque as pessoas precisam saber se estão conversando com um sistema de IA ou olhando para o conteúdo – imagens, vídeos ou documentos – gerados por um chatbot.

“Acho que também precisaremos de regras e diretrizes sobre o que se espera em termos de divulgação de uma empresa que fornece um modelo que pode ter esses tipos de habilidades das quais estamos falando”, disse Altman.

Maior risco de fake news

Esse é um sentimento com o qual Bennett, da Forrester, concorda, argumentando que o maior perigo que a IA generativa apresenta para a sociedade é a facilidade com que a desinformação e fake news podem ser criadas.

“Esta questão anda de mãos dadas com a garantia de que os fornecedores desses grandes modelos de linguagem e ferramentas de IA generativas obedeçam às regras existentes sobre direitos autorais, propriedade intelectual, dados pessoais, etc. e analisando como garantimos que essas regras sejam realmente aplicadas, ” ela disse.

Romero Moreno argumenta que a educação é a chave para lidar com a capacidade da tecnologia de criar e espalhar desinformação, principalmente entre os jovens ou aqueles com menos conhecimento tecnológico. Notificações pop-up que lembram os usuários de que o conteúdo pode não ser preciso encorajariam as pessoas a pensar mais criticamente sobre como se envolver com o conteúdo online, disse ele, acrescentando que algo como as atuais mensagens de isenção de responsabilidade de cookies que aparecem nas páginas da web não seriam adequadas. , pois geralmente são longos e complicados e, portanto, raramente lidos.

Em última análise, disse Bennett, independentemente de como seja a legislação final, reguladores e governos de todo o mundo precisam agir agora. Caso contrário, acabaremos em uma situação em que a tecnologia foi explorada a tal ponto que estaremos travando uma batalha que nunca poderemos vencer.

E o Brasil?

No Brasil, há um Projeto de lei, o PL 2.338/2023, que proíbe o poder público de usar sistemas de inteligência artificial para avaliar e classificar os cidadãos com base no seu comportamento social.

O PL traz em seu primeiro artigo o seguinte:

Art. 1º Esta Lei estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Brasil, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico. Para ler os demais pontos, clique aqui.

Embora ele ainda esteja só começando a tramitar pelas comissões permanentes do Senado, o projeto que regulamenta os sistemas de IA generativa no Brasil estabelece várias regras para o uso dessas tecnologias pelo poder público. 

Rankeamento e gravação de cidadãos

Conforme o projeto, o poder público ficará proibido de instaurar sistemas de inteligência artificial a fim de avaliar e classificar os cidadãos com base no seu comportamento social ou sua personalidade Especialmente no que tange o controle de acesso a bens e serviços públicos.

Já em relação à utilização de câmeras para identificação de indivíduos em espaços públicos só será autorizada em caso de lei federal específica para isso. Além disso, também deverá haver  autorização judicial para:

  • busca de vítimas de crimes ou pessoas desaparecidas;
  • localizar suspeitos de crimes com pena máxima de reclusão superior a dois anos;
  • situações de crime em flagrante.

Além disso, o projeto já classifica como sendo de alto risco os sistemas de IA generativa que possam ser usados em atividades tipicamente governamentais, ou pelo poder público e iniciativa privada, como:

  • controle de trânsito; 
  • gestão de abastecimento de água e eletricidade; 
  • acesso à educação e avaliação de estudantes;
  • acesso a serviços públicos; 
  • administração da justiça; 
  • estão de serviços de emergência, como bombeiros e assistência médica;
  • investigação criminal e segurança pública; 
  • controle de fronteiras; 
  • avaliação individual de risco de cometimento de crimes e de traços de personalidade e de comportamento criminal.

Por conta dessas nuances, o projeto está sujeito a conter regras mais rígidas do que outros relacionados à tecnologias diversas.

Decisão do povo

O PL 2.338/2023 estabelece normas bastante específicas para que o poder público possa contratar sistemas de IA generativa. Normas estas que vão além das regras gerais aplicadas a todos os sistemas, como é o caso de garantir a correção de erros, vieses e não discriminação.

Portanto, antes de contratar uma IA generativa, o governo terá que promover audiências e consultas públicas sobre o uso pretendido e sobre os dados que irá utilizar. Também será obrigatório registrar quem usou o sistema e de que forma, a fim de asssegurar que os dados sejam provenientes de fontes seguras. Ainda de acordo com o projeto, se o sistema for considerado de alto risco, o poder público não será autorizado a utilizá-lo.

Fiscalização

Ainda de acordo com o PL, a fiscalização e a regulação dos sistemas de IA generativa será responsabilidade de uma autoridade que deverá ser indicada pelo Poder Executivo. Essa autoridade deverá, então, criar as normas de regulamentação da lei; zelar pela proteção aos direitos fundamentais; estimular a adoção de boas práticas no setor; e aplicar sanções administrativas no caso de descumprimento da lei.

A autoridade competente prevista no texto também poderá autorizar o funcionamento da sandbox regulatória. Ou seja, o ambiente regulatório experimental onde os sistemas de IA generativa poderão funcionar temporariamente sem ter que cumprir todos as regras legais, para fins exclusivamente de testes.

Há urgência na regulamentação de IA generativa no Brasil?

De acordo com o Ministro Villas Bôas Cueva, a resposta é sim. 

“Hoje se percebe com muita clareza que o momento de discutir seriamente a regulação em caráter geral da inteligência artificial (IA) já é de extrema urgência”, afirmou o ministro do Superior Tribunal de Justiça (STJ) Ricardo Villas Bôas Cueva, no seminário A Construção do Marco Regulatório da Inteligência Artificial no Brasil.

Esse evento consiste em uma parceria entre o Centro de Estudos Judiciários (CEJ/CJF) e o STJ, com o apoio da Escola Nacional de Formação e Aperfeiçoamento de Magistrados (Enfam) e da Escola Superior de Advocacia Nacional da Ordem dos Advogados do Brasil (ESA/OAB). 

Villas Bôas Cueva afirmou que “o momento é chegado porque os riscos causados pela IA generativa já são muito concretos. Espero que essas discussões sirvam como um pontapé inicial para um amplo debate na sociedade civil sobre as regras que devemos adotar o quanto antes para proteger o ser humano, a diversidade e os valores fundamentais”.

Discussão no Congresso 

A primeira palestra foi realizada por Andrea Renda, professor da Escola Transnacional de Governança da European University Institute e diretor do CEPS da Unidade Global Governance, Regulation, Innovation & Digital Economy. Já os moderadores do debate foram o ministro Villas Bôas Cueva e a professora Laura Schertel Mendes. Em sua fala, especialista promoveu uma reflexão sobre os aspectos que envolvem a regulamentação da inteligência artificial.

“Em todo o mundo, há a necessidade de uma regulamentação adaptativa com princípios baseados em resultados. O desenvolvimento responsável da IA deve envolver as questões éticas e legislativas, levando em conta os aspectos da autonomia humana, a governança de dados, o respeito às diversidades e à transparência”, declarou. 

Portanto, é inegável a necessidade de regulamentção de IA generativa no Brasil, tal como em todos os países do mundo. Afinal, as ferramentas estão à disposição de todos, incluindo agentes mal intencionados que podem usá-las para realizar vários tipos de crimes. Também é importante lembrar que a LGPD está ativa e de olho no uso de dados pessoais de usuários da internet, coisa que uma IA generativa ainda não está pronta para lidar sozinha.

Isso tudo só ressalta aiportância de empresas do setor público ou privado contarem com parceiras de TI capacitadas a adeuar seus sistemas à LGPD, além de treinar seus funcionários para lidarem com as novas tecnologias emergentes.

Diferenciais da Infonova

A Infonova tem 20 anos de experiência em tecnologia, infraestrutura de TI, e pessoas. Temos clientes internacionais como HBO, AirBnb, Linkedin, Tempo Assist, Nissin, entre outros. Ou seja, estamos aptos a atender qualquer segmento e tamanho de negócio com maestria.

BACKUP

Todas as posições de profissionais da Infonova têm backup. Temos um ditado interno que é: “quem tem um… não tem nenhum”. Portanto, somos obcecados em ter continuidade nas operações para que nós e os nossos clientes possam focar na parte mais importante: explorar oportunidades e gerar crescimento.

VALOR FINANCEIRO

O valor da Infonova é intencionalmente menor quando comparado com empresas no mesmo nível de maturidade. No entanto, fazemos isso para ter a possibilidade de escolher os nossos clientes e ter uma base de clientes satisfeitos, e por bastante tempo.

LIBERAÇÃO DO RH

O RH é uma das áreas mais importantes de qualquer empresa. Afinal, ele deve estar focado em gerir a cultura, desenvolvimento dos colaboradores e atração de talentos; e não apenas com a reposição de profissionais. Sendo assim, terceirizar a TI oferece a possibilidade de fazer com que o RH esteja mais livre para se tornar um vetor de crescimento para a empresa.

FLEXIBILIDADE – HUB DE TECNOLOGIA

A Infonova não faz só Infra, ela pode fazer de tudo. Na verdade, para alguns clientes que não podem resolver algumas questões diretamente, a Infonova atua como Hub, indo para o mercado, encontrando parceiros e fornecedores e interagindo com eles. Esses serviços incluem áreas diversas, como: 

  • Ar condicionado;
  • Outsourcing de impressão;
  • Links de internet;
  • Compra de materiais e mais.
ALOCAÇÃO DE DESENVOLVEDORES

A Infonova já foi uma fábrica de software no passado. Contudo, em 2012 escolhemos focar em Gestão de TI, Infraestrutura e Segurança. No entanto, como era de se esperar, esse conhecimento e familiaridade permanecem até hoje no time. Portanto, realizamos consultorias de DevOps para alguns clientes, atuamos como mediador entre clientes e desenvolvedores, e também alocamos desenvolvedores para alguns clientes.

RETENÇÃO DE COLABORADORES

Demoramos mais de 10 anos para entender e construir as ferramentas para atrair e manter profissionais de tecnologia no nosso time. Então, seja o profissional alocado no cliente ou não, temos a vivência de como reter, desenvolver e satisfazer tanto os profissionais quanto os clientes. E essa é uma necessidade para o sucesso da empresa.

LIBERAR BRAIN POWER DA ORGANIZAÇÃO PARA APROVEITAR OPORTUNIDADES

Não dá para fazer tudo. Então, faz mais sentido focar no que faz a empresa crescer, mas isso requer um recurso escasso: tempo e atenção. Terceirizar a TI significa retomar esse recurso, contudo, não é de graça. Terceirizar é mais caro do que contratar direto, mas faz sentido se você pode usar a atenção e o tempo para realizar mais valor, inclusive financeiro.

NÃO TEM MULTA DE CONTRATO

A Infonova tirou as multas dos seus contratos há muitos anos. Afinal, entendemos que para o cliente, muitas vezes mudar é uma situação nova. Portanto, escolhemos tirar o risco do cliente e trazer este risco apenas para o nosso lado.

PODE PARAR QUANDO QUISER

Os primeiros 90 dias de contrato com a Infonova não tem multa e nem aviso prévio. Ou seja, basta pedir para parar. Contudo, após os 90 dias, também não temos multa, porém, solicitamos um aviso com 30 dias de antecedência.

CONTINUAMOS AMIGOS

Na Infonova a relação continua mesmo sem contrato. Ou seja, mantemos o relacionamento com os clientes e continuamos ajudando, trocando experiências e apoiando, independente de existir um documento de contrato ou não. Afinal, o nosso interesse é na parceria.

DORMIR TRANQUILO

Stress faz parte do crescimento. Afinal, crescer não é um caminho fácil. No entanto, você pode escolher o tipo de stress que quer ter. Ou seja, pode decidir entre o stress de fazer a empresa “funcionar”, ou o de focar em aproveitar as oportunidades enquanto dorme tranquilo sabendo que o dia a dia está garantido.

 

 

Facebook
Twitter
LinkedIn

posts relacionados

Perguntas
frequentes

Nós falamos com o seu fornecedor atual e colhemos todas as informações necessárias diretamente com eles. Também podemos fazer o mapeamento de todas as informações diretamente na sua empresa.

SIM, é possível melhorar a qualidade e o desempenho e ainda reduzir custos. Essa eficiência é possível graças ao sistema de melhoria contínua que aplicamos há anos.

SIM, o time interno pode ser absorvido, com os profissionais se tornando colaboradores da Infonova.

SIM. Em conjunto com seu departamento, ou consultoria jurídica, ajudamos a implantar as ações de TI necessárias para adequação da LGPD.

A transição pode ocorrer com ou sem o apoio do fornecedor atual. A Infonova vai mapear todas as informações, identificar os itens críticos e realizar a transição de forma segura, sempre em alinhamento com o cliente.

Em geral é rápida. O tempo exato depende de cada situação. O prazo mais comum de transição em paralelo é entre 1 semana e 15 dias.

NÃO. Temos soluções para empresas de 10 a 2.500 colaboradores. Desenvolvemos uma metodologia para atender empresas em diversos segmentos, em situações de crescimento ou retenção.

Temos diversas soluções para proteger o acesso de usuários que ficam externos ou em home office.

SIM, trabalhamos com os principais provedores de nuvem e possuímos um datacenter próprio.

Já vai?

Receba conteúdos exclusivos e gratuitos direto no seu e-mail, para ler sem pressa ;)

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

Receba Gratuitamente

Fique tranquilo, não compartilhamos suas informações.

FALE
COM UM
ESPECIALISTA