regulaÇÃo pela definiÇÃo de padrÕes...
TRANSCRIPT
UNIVERSIDADE DE SÃO PAULO FACULDADE DE DIREITO
SEIITI ARATA JÚNIOR
REGULAÇÃO PELA DEFINIÇÃO DE PADRÕES
TECNOLÓGICOS NA GOVERNANÇA DA INTERNET
Dissertação apresentada ao Departamento de Direito Internacional da Faculdade de Direito da Universidade de São Paulo para obtenção do título de mestre.
Orientadores: Prof. Titular Guido Fernando Silva Soares (in memoriam) e Prof. Doutor Umberto Celli Júnior
São Paulo
2006
SEIITI ARATA JÚNIOR
REGULAÇÃO PELA DEFINIÇÃO DE PADRÕES TECNOLÓGICOS NA GOVERNANÇA DA INTERNET
Dissertação apresentada ao Departamento de Direito Internacional da Faculdade de Direito da Universidade de São Paulo para obtenção do título de mestre.
Orientadores: Prof. Titular Guido Fernando Silva Soares (in memoriam) e Prof. Doutor Umberto Celli Júnior
São Paulo março/ 2006
RESUMO
A Internet surgiu como um pequeno experimento militar e científico nos Estados Unidos da América. A técnica utilizada para a transmissão de dados foi logo adotada por todo o mundo, a ponto de hoje ser considerada um recurso global em documentos resultantes de uma conferência mundial da ONU, a Cúpula Mundial sobre a Sociedade da Informação. A evolução e expansão da Internet, porém, não se deu de forma simples e sem disputas. Ao contrário, diversos interesses comerciais e politicos marcaram sua história, em contínua competição. Ao final, prevaleceram os interesses daqueles que tinham maior poder técnico, político ou econômico. Os atuais paradigmas de arquitetura de rede são um legado desse processo histórico. A definição de padrões tecnológicos revela uma dimensão poderosa de regulação e, assim, considerados os princípios enumerados pela Cúpula Mundial sobre a Sociedade da Informação, é necessária a implementação de estruturas de governança claras que permitam uma colaboração entre as diversas partes interessadas, de forma a legitimar as decisões a respeito do futuro da arquitetura da rede.
Palavras-chaves: Internet, governança da Internet, definição de
padrões, Cúpula Mundial sobre a Sociedade da Informação.
ABSTRACT
The Internet has developed from a small military and scientific experiment in the United
States of America. The technique adopted for the data transmission was soon implemented
worldwide, and has recently received the recognition of its status as a global facility
available to the public by a United Nations conference, the World Summit on Information
Society. The evolution and expansion of the Internet, though, has not proceeded smoothly
and without disputes. By the contrary, several commercial and political interests have
marked the Internet's history, in a continuing competition. At the end of the day, the
interests of those embedded with political, technical or economic power have prevailed.
The current paradigms of network architecture are a legacy from such historical period.
The definition of technical standards reveals a powerful regulatory dimension and, thus,
considering the principles from the World Summit on Information Society, it is necessary
to implement clear governance structures to enable collaboration among different
stakeholders, in order to legitimate decisions regarding the future of the net architecture.
Key words: Internet, Internet governance, standards setting, World
Summit on Information Society.
LISTAS DE ABREVIATURAS E SIGLAS
ARPA Advanced Research Projects Agency
BBN Bolt, Beranek and Newman
CCITT Consultative Committee on International Telegraphy and Telephony
ccTLD country code Top Level Domain
CMSI Cúpula Mundial sobre a Sociedade da Informação
CNRI Corporation for National Research Initiatives
DCA Defense Communications Agency
DNS Domain Name System
DoC Department of Commerce
DRM Digital Rights Management
FCC Federal Communications Commission
GAC Government Advisory Committee
GTGI Grupo de Trabalho sobre a Governança da Internet
gTLD generic Top Level Domain
IAHC Internet ad hoc Committee
IAB Internet Activities Board
IBM International Business Machines
IAHC gTLD
MoU
Internet ad hoc Committee generic Top Level Domain Memorandum of
Understanding
IANA Internet Assigned Numbers Authority
ICANN Internet Corporation for Assigned Names and Numbers
ICCB Internet Configuration Control Board
IETF Internet Engineering Task Force
IGF Internet Governance Forum
IESG Internet Engineering Steering Group
IMPs Interface Message Processors
ISOC Internet Society
ISP Internet Service Provider
MIT Massachusetts Institute of Technology
NGN Next Generation Networking
NIC Network Information Center
NCP Network Control Protocol
NSI Network Solutions, Inc.
NSF National Science Foundation
OSI Open Systems Interconnection
OMPI Organização Mundial da Propriedade Intelectual.
OMC Organização Mundial do Comércio
RFC Request for Comments
SNA Systems Network Architecture
TCP/IP Transmission Control Protocol / Internet Protocol
TCTS Trans Canada Telephone System
TIC Tecnologias de Informação e Comunicação
TLD Top Level Domain
WGIG Working Group on Internet Governance
UIT União Internacional de Telecomunicações
TEIF Transferência Internacional de Fundos
ISO International Standards Organization
WSIS World Summit on Information Society
VoIP Voice over IP
QoS Quality of Service
SUMÁRIO
1. INTRODUÇÃO 1
1.1. Justificativa do tema 6
1.2. Localização do problema 7
1.3. Objetivos pretendidos 10
1.4. Metodologia de trabalho 10
1.5. Estrutura 12
2. A REGULAÇÃO PELA ARQUITETURA 14
2.1. Internet: um sistema artificial 14
2.2. Críticas às visões neutras e unilaterais em relação à tecnologia 17
2.3. Regulação a priori e a posteriori 18
2.4. Tridimensionalidade do Direito 19
2.5. A força do código na regulação pela arquitetura 21
2.6. A possibilidade de controle 24
2.7. Derrubando o mito do ciberespaço 25
2.8. Conclusão deste capítulo 27
3. DINÂMICA 28
3.1. Definição de Internet 29
3.1.1. Aplicações 31
3.2. Breve histórico da Internet 32
3.3. O vetor militar: resistência, flexibilidade e alta performance 33
3.4. O vetor da comunidade acadêmica de ciências da computação 35
3.5. Produtores e usuários 37
3.6. O surgimento do e-mail 38
3.7. Meritocracia: abertura, informalidade, descentralização e rough consensus and running code
39
3.8. O vetor comercial 42
3.9. O projeto de rede fim-a-fim (end-to-end network design) 43
3.10. Os conceitos originais de rede 44
3.11. A chegada da Defense Communications Agency e a transição para o Transmission Control Protocol/ Internet Protocol (TCP/ IP)
46
3.12. Conclusão deste capítulo 48
4. COMPETIÇÃO: MODELO TELECOM V. MODELO INTERNET 50
4.1. Competição na definição de padrões (standards) 51
4.2. Definição internacional de padrões formais públicos 53
4.3. Recomendação X.25 e a competição entre a Trans-Canada Telephone System (TCTS) e a International Business Machines (IBM)
55
4.4. Disputa entre X.25 e o Transmission Control Protocol/ Internet Protocol (TCP/ IP)
57
4.5. Open Systems Interconnection 59
4.5.1. Conceito de camadas 61
4.6. Conclusão desde capítulo 65
5. INTERNET CORPORATION FOR ASSIGNED NAMES AND NUMBERS (ICANN): NOMES E NÚMEROS
68
5.1. Nomes e números 68
5.2. O sistema de Nomes de Domínio (Domain Name System – DNS) 69
5.3. Privatização e os temas de gerenciamento 70
5.4. Jon Postel e a Internet Assigned Numbers Authority (IANA) 71
5.5. Network Solutions Inc e a escassez de nomes de domínio 73
5.6. Internet ad hoc Committee (IAHC) 74
5.7. Internet Corporation for Assigned Names and Numbers (ICANN) 75
5.8. A Cúpula Mundial sobre a Sociedade da Informação - CMSI 80
5.8.1. A CMSI e a governança da Internet 81
5.8.2. As críticas da CMSI 83
5.8.3. Primeira fase da CMSI: Genebra, 2003 85
5.8.3.1. Declaração de Princípios 86
5.8.3.2. Plano de Ação 86
5.8.4. O Relatório do Grupo de Trabalho sobre a Governança da Internet - GTGI
87
5.8.5 Um marco positivo na governança da Internet 88
5.9. Conclusão deste capítulo 89
6. COLABORAÇÃO: GOVERNANÇA 91
6.1. Definição de “ governança” 91
6.2. Soft power, hard power e a soft law e hard law 93
6.3. Foucault e o poder 97
6.4. Governança da Internet 99
6.4.1. Definição de padrões tecnológicos 100
6.4.2. Alocação e gerenciamento de recursos 101
6.4.3. Formulação e execução de políticas e a resolução de disputas 102
6.5. Segunda fase da CMSI: Tunis, 2005 103
6.6. Conclusão deste capítulo 105
7. COMPETIÇÃO E COLABORAÇÃO: PRINCÍPIO FIM A FIM 107
7.1. Internet Engineering Task Force - IETF 108
7.2. Retomando a análise do princípio fim a fim 110
7.3. As possibilidades de redes inteligentes 113
7.4. Papel dos provedores de serviços (ISPs) na mudança de controle 114
7.5. O debate sobre o princípio fim a fim na CMSI 117
7.6. Legitimação na tomada de decisões 121
7.7. Conclusões deste capítulo 121
8. CONCLUSÕES FINAIS 123
REFERÊNCIAS BIBLIOGRÁFICAS
BIBLIOGRAFIA
1. INTRODUÇÃO
É desnecessário dedicar páginas desta dissertação apontando para a
revolução trazida pelas Tecnologias de Informação e Comunicação – TICs, em especial a
Internet. São inúmeros os exemplos de facilidades ampliadas pela Internet1, a ponto de ser
o seu acesso um tema de relevância global discutido recentemente por uma Conferência
das Nações Unidas, a Cúpula Mundial sobre a Sociedade da Informação – CMSI2.
Quem define como a Internet funciona? A resposta não é simples e faz parte
de um tema maior que, nos últimos anos, vem se consolidando sob a expressão
“governança da Internet”. Diante das diferentes definições de governança da Internet
propostas nos últimos anos, um Grupo de Trabalho especificamente sobre o tema foi
constituído em 2004 pelo Secretário Geral das Nações Unidas, o Grupo de Trabalho sobre
a Governança da Internet – GTGI (Working Group on Internet Governance – WGIG)3.
A definição das características essenciais da Internet é dinâmica. A
configuração da Internet mudou muito nos seus poucos anos de existência e tem sido
marcada por alta inovação na geração de conhecimento e aplicações. Entretanto, uma
influente corrente4 de professores de Direito aplicado à tecnologia defende que uma
característica essencial no estímulo à inovação está ameaçada. Esta característica é a
arquitetura fim-a-fim (end-to-end), que será analisada com detalhes nos Capítulos 3 e 7 da
dissertação.
Basicamente, o princípio fim-a-fim defende que a rede de comunicações
deve ser simples, apenas com a função de transporte de dados, sem realizar qualquer tipo
de diferenciação no tratamento das informações que passam por ela. Isso implica qualquer 1 Dentre os juristas que apresentam uma visão mais holística sobre a inovação estimulada pela Internet, vide
Jonathan Zittrain, The Generative Internet, a ser publicado na Harvard Law Review, 2006. Versão preliminar do texto disponível na Internet.
2 Para informações sobre a Cúpula Mundial sobre a Sociedade da Informação, conferência fundamental para a discussão dos temas desta dissertação, o web site da UIT- União Internacional de Telecomunicações é o repositório oficial. Disponível em: <http://www.itu.int/wsis/>. Acesso em: 16.01.2006.
3 Os resultados do GTGI estão publicados em seu web site. Disponível em: <http://www.wgig.org>. Acesso em 16.01.2006.
4 A corrente doutrinária seguida pela dissertação é liderada por Lawrence Lessig, Jonathan Zittrain, Yochai Benkler, Michael Geist, Julie Cohen, entre outros mencionados oportunamente.
2
aplicação poder utilizar a Internet sem necessidade de aprovação ou ser condizente com os
interesses corporativos predominantes. As forças relacionadas à supressão do princípio
fim-a-fim tendem a reduzir o potencial de criatividade e inovação que inicialmente
marcaram a Internet, concentrando o controle de desenvolvimento da rede nas mãos de
poucos participantes.
Em que o estudo sobre um princípio de arquitetura de rede na governança
da Internet poderia contribuir para o saber jurídico? Não seria matéria para outras
disciplinas como a Economia, Engenharia, Ciências de Computação ou, quando muito,
Ciência Política e Sociologia?
A possibilidade de desdém quanto ao papel do Direito é um engano sobre o
qual o Marotta Rangel apud Martins e Babuy (1998, p.273) expressou sua opinião nos
seguintes termos:
O papel do Direito é importante em relação a todos os processos. Importante como matéria do processo; como valor e como constelação de valores que iluminam o mesmo processo. A globalização transcende o ordenamento interno de cada Estado e só tem sentido se for dinamizada e conduzida pelo Direito Internacional.
[...]
Na verdade, tradicionalmente, os sociólogos e historiadores costumam ter, infelizmente, uma visão depreciativa do Direito, do seu papel na sociedade. Não levam em conta que o Direito se caracteriza não apenas pela sua dimensão normativa, senão também pela sua dimensão factual e valorativa.
Via de regra há um reducionismo na posição da Ciência Política, da Sociologia, que leva a entender o Direito apenas como um complexo de regras, quando na verdade essas regras refletem uma realidade social e política, não apenas como um espelho dessa realidade, senão também como guia orientador das transformações da mesma sociedade. Esquecem também que o Direito é valor, inspirador, portanto, do comportamento de homens, de sociedades e de governos.
No curso de minha experiência tenho visto que, infelizmente, essa visão continua a existir.
Todavia, Marotta Rangel (apud Martins e Barbuy) apresenta um
contraponto: esse distanciamento das disciplinas é também objeto de um movimento de
integração, ilustrando essa afirmação com o caso da nova perspectiva da Ciência Política,
que reconhece cada vez mais o fundamental papel do Direito. Em tom otimista, sintetiza
apontando que “(m)esmo na Faculdade de Direito, em nossa Universidade, o diálogo entre
cientistas políticos, sociólogos e juristas é cada vez maior”.
3
Seguindo a positiva tendência apontada por Marotta Rangel de integração
harmônica, a qual não apenas deve ser conduzida entre as ciências humanas mas também
com os aspectos humanos de ciências exatas como as Ciências de Computação5, a presente
pesquisa identificará o papel do Direito na Sociedade da Informação. Em particular, é
necessário identificar a forma mais adequada de aplicação do Direito na elaboração de
políticas públicas e definição de padrões tecnológicos que atendam ao interesse público no
futuro da Internet.
Para tanto, o desenvolvimento dessa proposta requer coesão estrutural.
Assim leciona sobre a função da dogmática analítica Ferraz Júnior (1994, p 253):
Nas sociedades desenvolvidas e complexas, o sistema jurídico se constitui como um sistema diferenciado, isto é, com outros sistemas sociais (político, religioso, econômico etc.) relações de intercâmbio de informações. O sistema jurídico é, assim, um sistema autônomo, isto é, um conjunto de elementos e relações capaz de impedir que um evento em qualquer dos outros sistemas seja necessariamente um evento dentro dele, ao regular o que deve e o que não deve ser jurisdicizado e, sendo jurisdicizado (ou seja, tornando-se um evento dentro do sistema), o que deve ser lícito e ilícito. Este intercâmbio confere, porém, ao sistema uma grande variabilidade de eventos e situações que, para ser dominada racionalmente exige unidade. É aí que entra a dogmática analítica com seus conceitos sistematizadores e sua função regulativa.
Essa necessidade de definição do que deve ou não deve ser jurisdicizado a
fim de evitar a ilegítima sobreposição de um sistema autônomo (como o sistema
tecnológico) ao sistema jurídico é tarefa que exige o entendimento de como essa
dominação pode ocorrer.
Ao fenômeno de produção de efeitos jurídicos em função de intercâmbio de
eventos originados em sistema tecnológico chamamos de “regulação pela arquitetura”. A
dissertação tratará da Internet e suas aplicações como objeto de análise em si e também
como forças externas ao sistema jurídico produtoras de efeitos regulatórios. O raciocínio e
argumentação da dissertação serão apresentados dentro de uma moldura conexa com a
Teoria Geral do Direito no contexto do Direito Internacional Público.
5 No exterior, são comuns os cursos jurídicos que possuem centros de pesquisa que integram tais disciplinas,
como o Berkman Center for Internet and Society da Harvard Law School, disponível em: <http://cyber.law.harvard.edu/home/>, o Stanford Law School Center for Internet and Society, disponível em: <http://cyberlaw.stanford.edu/>, o Oxford Internet Institute da University of Oxford, disponível em: <http://www.oii.ox.ac.uk/>, entre outros.
4
Para tal abordagem, uma lição pode ser tirada de constante queixa que vem
se transformando em lugar-comum: conforme as relações sociais são aceleradas em função
da tecnologia, maiores são as perdas causadas pela demora na produção de normas que
sejam adequadas a tais transformações. Ao mesmo tempo em que essa lamúria é
compreensível, por outro lado, ela revela um anacronismo que falha na percepção da
dimensão mais atual do Direito, que não consiste apenas em fornecer respostas
posteriormente a estímulos dos fatos, mas inclui também uma atitude pró-ativa na busca do
progresso.
Afinal, o Direito não mais representa somente um instrumento de disciplina
social e, diferentemente do passado, não visa somente a garantir a segurança, liberdade e
patrimônio do homem. Hoje, sua meta ultrapassa essa dimensão, devendo também
promover o bem comum, o que implica utilizar-se de sua técnica para alcançar justiça,
segurança, bem estar e progresso. Esse Direito da atualidade é um fator decisivo para o
avanço social, o desenvolvimento da ciência, da tecnologia, da produção das riquezas, o
progresso das comunicações, a elevação do nível cultural. O Direito deve estimular
ambientes propícios para a consecução de tais objetivos e reprimir iniciativas que
impliquem em obstáculos desproporcionais a esse bem comum.
Por tudo isso, no contexto dos debates de coordenação de atividades que
implicam regulação da Internet que vêm construindo o conceito de “governança da
Internet”, é necessário determinar como definir padrões tecnológicos que tenham efeitos
que devam ser jurisdicizados. Como caso de estudo, escolhemos um paradigma
tecnológico: o princípio fim-a-fim da Internet, que tem sido entendido por especialistas
como um elemento que estimula o bem do homem.
Em uma rede de escopo global, decisões de padronização devem ser
tomadas em harmonia com o direito internacional, que cada vez mais integra os
mecanismos de governança da Internet (KURBALIJA, 2005, p.105). Nesse processo, será
observada a crescente importância da soft law para alcançar compromissos comuns. O
próprio direito internacional encontra-se em acelerada transformação, buscando adequar-se
à nova dinâmica das relações internacionais. Atualmente, uma atenção internacional está
voltada para as discussões sobre governança global, a respeito da qual os governos são
confrontados com outras partes interessadas que solicitam ser ouvidas e participar dos
processos de tomadas de decisão.
Curiosamente, no caso da governança da Internet, o caminho parece inverso.
5
No caso da governança da Internet, os governos é que procuram obter uma voz na decisão
da manutenção e também do futuro da rede, que se desenvolveu fora de uma moldura
clássica intergovernamental.
A experiência do Grupo de Trabalho sobre a Governança da Internet -
GTGI, oportunamente analisado, pode trazer importantes lições para o direito
internacional, mais especificamente quanto à diplomacia multistakeholder, que envolve
múltiplas partes interessadas, principalmente no contexto em que há discussões sobre uma
necessária reforma do sistema das Nações Unidas e em que novas formas de governança
global estão em discussão na agenda da cooperação internacional.
O GTGI incluía representantes de governos, do setor privado e da sociedade
civil atuando em sua capacidade pessoal e participando em pé de igualdade nos debates.
Ao fim, seus vários perfis e interações positivas deram força ao principal resultado
buscado: o Relatório do GTGI (GTGI, 2005).
Para Markus Kummer (Kummer, 2005, p.5), o principal legado do GTGI é
que o processo criado foi inovador e provou ser um experimento de sucesso na cooperação
multistakeholder. O GTGI teve êxito em criar um espaço para um diálogo de políticas
sobre governança da Internet em um clima de confiança entre todas as partes interessadas.
É esperado que tal legado possa ser traduzido em uma abordagem mais cooperativa para a
governança da Internet além da fase de Tunis da CMSI, envolvendo todas as partes
interessadas em nível de igualdade. Kummer (2005, p.5) acredita que a experiência do
GTGI revelou uma necessidade de um diálogo continuado e nesse sentido foi início de um
processo que continuará. Porém, ainda é aguardado saber se a experiência do GTGI poderá
ser usada como referência em outros fóruns fora do âmbito da governança da Internet.
A governança da Internet mostra-se assim um exemplo rico de temas
relacionados ao processo decisório internacional em seu sentido mais amplo e
contemporâneo, em via dupla: ao mesmo tempo em que o direito a influencia, os resultados
do processo referente à governança da Internet contribuem com novos mecanismos para o
direito internacional.
6
1.1. Justificativa do tema
Os efeitos trazidos pela tecnologia não devem se sobrepor ao sistema
jurídico. O direito internacional deve controlar a regulação pela arquitetura sob risco de
domínio ilegítimo de interesses particulares sobre a Sociedade da Informação.
Motivados por uma Internet que proporcione maior segurança e controle
sobre infrações à propriedade intelectual, entre outros, iniciativas de alguns atores buscam
modificar a tecnologia de modo a diminuir o potencial de criação e liberdade dos usuários,
que ficarão limitados apenas para os fins previamente autorizados pelos fabricantes e
gerentes de rede.
Atualmente, não há mecanismos de governança adequados para a discussão
e deliberação a respeito dos efeitos regulatórios de determinados padrões, protocolos e
modelos tecnológicos. Pela ausência institucional de tal mecanismo, o que acontece é que
muitas vezes um determinado padrão de facto domina o mercado permeando os usuários
da tecnologia com os valores nele embutidos. No caso do princípio fim-a-fim, será
examinado que, apesar do apoio de diversas partes interessadas (stakeholders), não houve
amparo expresso na documentação resultante da Cúpula Mundial sobre a Sociedade da
Informação. O recém-criado Internet Governance Forum – IGF6 pode ser o mecanismo
mais adequado para a discussão sobre demais assuntos relacionados à definição de
padrões, visto que os existentes órgãos de padronização, como a Internet Engineering Task
Force – IETF, carecem de uma adequada estrutura de governança.
Apesar do progresso alcançado com a aprovação do IGF, os principais
debates têm se concentrado em uma função relacionada ao endereçamento dos recursos da
rede, em grande parte centralizada na Internet Corporation for Assigned Names and
Numbers - ICANN. Muitos outros temas ainda devem ganhar maior publicidade.
Defendemos que um desses temas é a definição de padrões tecnológicos, que possibilita a
regulação pela arquitetura.
A escolha entre os padrões tecnológicos historicamente é um assunto que
não tem despertado significativa atenção jurídica e assim deixada na mão do mercado.
6 Até o presente, o Internet Governance Forum – IGF ainda não foi formalizado e é esperado que sua primeira reunião ocorra em 2006 em Atenas, Grécia.
7
Entretanto, no caso da Internet em alguns padrões essenciais o mero
mercado não é suficiente para evitar abusos, pois se um protocolo essencial for
implementado, o usuário terá dificuldades em obter acesso a outras opções.
Não foi identificado, até o presente momento, qualquer estudo científico
sobre a governança da Internet no Brasil. Os poucos comentários nacionais permanecem na
forma de artigos ocasionais (FALCÃO, 2005; AFONSO, 2005, por exemplo) e sucinta
cobertura jornalística7. Essa lacuna expõe a sociedade a uma incerteza regulatória que pode
culminar em apropriação de recursos por agentes mais articulados que aproveitam a
precária governança, inclusive desenvolvendo tecnologias em afronta a certos valores,
causando perplexidades.
1.2 Localização do problema
É necessário um importante esclarecimento. Existem diversos assuntos
jurídicos ligados à Internet, como, por exemplo, a questão das mensagens não solicitadas
(spam), contratos realizados por meios eletrônicos, direitos de propriedade intelectual,
privacidade, liberdade de expressão, responsabilidade civil, crimes digitais, relações de
consumo, tributação do comércio eletrônico, perícia digital, entre outros, que não serão
abordados na dissertação pois, apesar de seu objeto tocar áreas relacionadas à governança
da Internet, com ela não se confunde.
A governança da Internet é um tema menos perceptível e ainda em
construção. Durante o processo da Cúpula Mundial sobre a Sociedade da Informação –
CMSI, diversas opiniões conflitantes a respeito do que seria a governança da Internet
foram apresentadas. Enquanto para alguns a governança da Internet seria estritamente
ligada ao gerenciamento e alocação de recursos como endereços IP e nomes de domínio e à
7 Cf., entre outros, FOLHA DE SÃO PAULO, Cúpula termina com mais de 200 acordos, Folha de São Paulo, São Paulo, 19 nov. 2005, Dinheiro, p.1, disponível em: <http://www1.folha.uol.com.br/fsp/dinheiro/fi1911200538.htm>. Acesso em 16.01.2006. FOLHA DE SÃO PAULO. A Gestão da Internet, Folha de São Paulo, São Paulo, 31 out. 2005, Editorial, p.2, disponível em: <http://www1.folha.uol.com.br/fsp/opiniao/fz3110200503.htm>. Acesso em 16.01.2006. ROSA, J.L.; CESAR, R. Modelo de gestão da web é posto em xeque, Valor Econômico, São Paulo, 27 out. 2005, Empresas e Tecnologia, p.3, disponível em: <http://www.valoronline.com.br/veconomico/caderno/?show=index&n=&mat=3354438&edicao=1213>. Acesso em 16.01.2006.
8
estrutura do sistema da Internet Corporation for Assigned Names and Numbers – ICANN
(visão estreita de governança da Internet, ou narrow Internet governance), para outros a
governança da Internet compreenderia todos os assuntos regulatórios relacionados à
Internet (visão ampla da governança da Internet ou broad Internet governance).
Pela impossibilidade de consenso, foi solicitado ao Secretário Geral das
Nações Unidas o estabelecimento de um Grupo de Trabalho sobre a Governança da
Internet – GTGI, cujo mandato incluiria, entre outras atividades, a apresentação de uma
definição de trabalho sobre o que seria a governança da Internet, que ao final tendeu mais
para a visão ampla da governança da Internet, libertando-se do campo exclusivamente
relacionado aos nomes e números gerenciados pela ICANN.
Da mesma maneira que, para a finalidade de delimitação do tema, não
trataremos dos assuntos jurídicos ligados à Internet, também é necessário realizar uma
delimitação dentro do grande campo da definição de trabalho de governança da Internet
apresentada pelo GTGI. Os temas relacionados ao sistema de nomes e números são
altamente complexos, visto que muitas vezes as soluções jurídicas que podem ser
apresentadas se tornam inócuas diante de limitações ou possibilidades tecnológicas. Um
exemplo é o debate sobre um excesso de poder detido pelos Estados Unidos da América
pelo fato de deter, em seu território, a maioria dos treze servidores raiz do sistema de
nomes de domínio. A partir do desenvolvimento da tecnologia anycast, que replica o
conteúdo destes servidores por diversos computadores espalhados pelo mundo, tal
questionamento deixa de ser uma preocupação política, visto ter sido solucionado
tecnicamente. A solução no plano fático torna assim desnecessária a intervenção através do
plano normativo.
Semelhantemente, ainda com relação ao sistema de nomes e números, os
debates sobre o controle da raiz são altamente dinâmicos com o desenvolvimento de
tecnologias de localização de dados, as quais não pretendemos enfrentar. A título
ilustrativo, foi divulgada na imprensa geral8 a notícia de que a China havia modificado o
sistema de nomes de domínio, adicionando uma raiz alternativa relacionada aos domínios
sob o country code Top Level Domain - ccTLD “.cn”. Entretanto, as alegações de que tal
iniciativa poderia ocasionar uma fragmentação no sistema de nomes de domínio foram
exageradas, por não afetar a localização de domínios fora do ccTLD “.cn” conforme
8 Vide, entre outras fontes, http://www.boston.com/news/world/asia/articles/2006/03/01/china_creates_own_net_domains/
9
avaliação de Milton Mueller, em mensagem enviada ao grupo de discussão do Internet
Governance Caucus em 28.02.2006.
As discussões de governança estreita da Internet foram centradas na
supervisão política da ICANN, que, para muitos, não tinha autoridade ou legitimidade
internacional para atuar com impactos regulatórios a todos os usuários globais da Internet.
As formas possíveis de supervisão política da ICANN são inúmeras e somente o GTGI, em
seu Relatório divulgado em junho de 2005, apresentou quatro diferentes propostas. A
presente dissertação, apesar de reconhecer o mérito do debate teórico a respeito das
possíveis alternativas que o Direito Internacional poderia apresentar para resolver de forma
harmônica a supervisão (ou mesmo substituição) da ICANN, não enfrentará tal tema.
É necessário justificar tal abordagem. Inicialmente, como já argumentado, a
questão dos nomes e números envolve detalhes extremamente técnicos sujeitos à rápida
mudança, o que poderia tornar o resultado da pesquisa prematuramente obsoleto. Em
segundo lugar, a literatura internacional conta com estudos teóricos relacionados ao tema
que não foram colocados à prática por se tratar de decisão que competirá, em última
instância, ao governo norte-americano, que acenou que não pretende dar continuidade à
independência da ICANN em curto prazo. Finalmente, a questão da supervisão política da
ICANN por si seria objeto de uma pesquisa individual9. Como, porém, as críticas do
sistema administrado pela ICANN ganharam grande destaque internacional, a dissertação
fará breve comentário sobre sua controvérsia e de como a CMSI não logrou êxito em obter
comprometimento do governo norte-americano em proceder às mudanças desejadas por
diversos participantes da CMSI.
Assim, avançando além do campo da governança estreita da Internet, no
Relatório apresentado pelo Grupo de Trabalho sobre a Governança da Internet, um aspecto
apresentado é a definição de padrões tecnológicos, que deve contar com a participação de
todas as partes interessadas (stakeholders).
A definição de padrões tecnológicos implica efeitos regulatórios e está
sujeita à influência de atores que pretendam impor padrões que lhes beneficiem, mesmo se
contra o interesse público.
9 A respeito, é sugerida a consulta à obra de Mueller (2004), que cuida exclusivamente do assunto. Posteriores contribuições sobre o tema foram publicadas no web site do Internet Governance Project.
10
A dissertação, em resumo, se limitará à investigação das justificativas e das
técnicas para a adequação da definição de padrões tecnológicos dentro da governança da
Internet de modo a atender os interesses e princípios consagrados na CMSI.
1.3.Objetivos pretendidos
Identificar a forma mais adequada de aplicação do Direito na definição de
padrões tecnológicos que atendam ao interesse público no futuro da Internet. Em especial,
examinar a importância da soft law para permitir a participação entre múltiplas partes
interessadas nos processos diplomáticos e alcançar compromissos comuns que, embora não
vinculantes, apresentam eficácia.
Ao definir como os padrões tecnológicos devam ser jurisdicizados,
escolhemos como caso de estudo um paradigma tecnológico: o princípio fim-a-fim da
Internet.
Examinar os resultados da CMSI e do GTGI e como o IGF deve ser usado
para maior legitimidade na decisão a respeito da definição de padrões tecnológicos.
1.4.Metodologia de trabalho
Para lidar com a complexidade e evitar as armadilhas da
interdisciplinaridade que podem desviar o foco do estudo, outras disciplinas somente serão
usadas conforme necessário para a justificação de afirmações e conclusões fundamentais
ou para auxílio na leitura, assegurando contextualização. Quando o desdobramento puder
implicar em direções distintas da presente proposta, as informações por onde o leitor
poderá iniciar suas pesquisas complementares e paralelas serão indicadas em notas de
rodapé.
11
Para entender o estado atual da governança da Internet, é indispensável uma
descrição histórica da evolução da Internet, em especial no tocante ao surgimento e
evolução da ICANN. Como a discussão relacionada à alocação de recursos de nomes e
números da ICANN escapa do foco da dissertação, alguns detalhes serão omitidos ou
trazidos de forma sucinta quando dispensáveis para o exame jurídico da matéria. Notas de
rodapé indicarão bibliografia complementar para a obtenção de maiores detalhes.
Observa-se que a definição da governança da Internet é altamente
complexa, tanto técnica como historicamente, sendo que, somente em 2003, foi
formalizada a necessidade de composição de um grupo de especialistas para a análise
formal do assunto, quando a Internet já havia alcançado uma expansão a ponto de trazer
uma conferência das Nações Unidas, a CMSI, saindo então da esfera restrita à academia e
grupo de cientistas para abraçar a sociedade global. Nessa análise, serão identificados quais
os diferentes tipos de governança, quais participantes estão envolvidos e quais os vetores
de governança. Destes, o Direito exerce papel fundamental.
Como muitos dos termos são jargão de informática, em sua maioria serão
mantidos no original, com tradução livre e indicação em notas de rodapé de explicação
conceitual para o leitor menos familiarizado, de modo a não prejudicar a leitura do leitor já
familiarizado.
Não é objetivo da pesquisa tratar da tecnologia por ela mesma, o que
demandaria maior rigor terminológico. O que se pretende é deixar a linguagem o mais
acessível possível para atender a finalidade de clareza, sem obviamente cometer erros
conceituais.
Observa-se que a fase final de pesquisa foi desenvolvida simultaneamente
ao final da segunda fase da Cúpula Mundial sobre a Sociedade da Informação em Tunis e
assim incorpora os desenvolvimentos na área de governança da Internet, incluindo a
assinatura do Compromisso de Tunis e da Agenda de Tunis para a Sociedade da
Informação, porém antes da primeira reunião do IGF, a ser realizado em Atenas.
Além da consulta a textos, a pesquisa compreendeu pesquisa de campo ao
realizar trocas de informações com os membros do Grupo de Trabalho sobre a Governança
da Internet – GTGI, inclusive com participação do pesquisador na quarta e última reunião
do GTGI durante o mês de junho de 2005 em Genebra, na qualidade de United Nations
Fellow como membro do Secretariado do Grupo de Trabalho sobre a Governança da
12
Internet, e como participante nas Consultas Abertas sobre o IGF realizadas nas Nações
Unidas em Genebra em 16 e 17 de fevereiro de 2006.
Enquanto no Brasil a literatura jurídica que analisa os efeitos regulatórios de
arquitetura tecnológica é escassa, a doutrina nos Estados Unidos da América é avançada e
ampla10. Assim, a dissertação fará referência à doutrina estrangeira para alcançar os
objetivos pretendidos.
Devido à grande quantidade de acrônimos e siglas relacionadas aos temas de
governança da Internet, um glossário é fornecido e as siglas são sempre desmembradas em
cada Capítulo, a fim de facilitar a leitura.
1.5.Estrutura
Como é necessário compreender o objeto da pesquisa, a Internet, antes de
iniciar discussões sobre propostas regulatórias, a primeira parte da dissertação cuidará de
elucidação sobre aspectos de relevância sobre a tecnologia e o marco teórico usado para
sua abordagem jurídica, que envolve um desdobramento da teoria tridimensional do
direito, para então cuidar do desenvolvimento da segunda parte que focalizará os temas
específicos de sua governança.
Será importante para a compree
nsão do contexto que pede a governança
entender que a Internet evoluiu de modo muito incomum e informal. A comunidade de
cientistas tinha valores que se misturavam com a própria essência da Internet e que não
podem ser ignorados. As histórias e personalidades a serem retratadas nesse Capítulo têm
10Por exemplo, a discussão de arquitetura da Internet no contexto da regulação de acesso à Internet banda
larga por cabo desenvolvida por Barbara Esbin, em Internet Over Cable: Defining the Future in Terms of the Past..Llewellyn Joseph Gibbons também discute a arquitetura da Internet no contexto da governança da Internet em No Regulation, Government Regulation, or Self-Regulation: Social Enforcement or Social Contracting for Governance in Cyberspace. Sobre a arquitetura da Internet no contexto da privatização de determinadas funções técnicas, vide trabalho dos professores Jay P. Kesan, e Rajiv C. Shah Fool Us Once Shame on You – Fool Us Twice Shame on Us: What We Can Learn from the Privatizations of the Internet Backbone Network and the Domain Name System. James B. Speta discute a arquitetura da Internet no contexto da regulação da espinha dorsal (backbone) da Internet em A Common Carrier Approach to Internet Interconnection. A arquitetura da Internet no contexto da regulação de telecomunicações também é tratada por Jonathan Weinberg, no artigo The Internet And "Telecommunications Services," Universal Service Mechanisms, Access Charges, and Other Flotsam of the Regulatory System, Timothy Wu propõe que a análise da regulação da Internet fique focalizada na camada de aplicação, em Application-Centered Internet Analysis.
13
como finalidade transmitir ao leitor esse espírito para que o compreenda e então possa
seguir com formas eficazes de governança, respeitando os valores sociais.
Na conclusão, a tendência de mudança de paradigmas, que vem sendo
observada, é reforçada. Tradicionalmente, a red
populariza o então aristocrático Direito Internacional que
somente comporta Estados soberanos e organiz
uzida dimensão do Direito Internacional o
limitava a um conjunto de princípios e regras dirigidos a conservar a paz, restringindo
comportamentos dos Estados. A partir dessa constatação, Soares (2002, p. 27) informa que
o século XX marca uma nova fase, com o dever de cooperação latissimo sensu.
Essa necessária cooperação está intrinsecamente ligada à intensificação dos
contatos internacionais que
ações internacionais enquanto sujeitos de
direito internacional público. Essa popularização é revelada na intensa participação e
menção das organizações não-governamentais e mesmo de indivíduos nos documentos
relacionados ao processo da CMSI e de suas posteriores reuniões no formato de Consultas
Abertas. É de se ressaltar que tais atores, apesar de sua importante participação no processo
de governança da Internet, não recebem a personalidade de Direito Internacional
(SOARES, 2002, p. 154). Porém, cada vez mais o conceito de diplomacia multistakeholder
vem se formando como uma nova dimensão ao Direito Internacional.
14
2. A REGULAÇÃO PELA ARQUITETURA
Explorando o interessante problema colocado por Luiz Olavo Baptista
Em março de 1986, Baptista (1986, p.
120), ao apresentar sua tese para Livre Docência em Direito Internacional Privado, no
Departamento de Direito Internacional da Faculdade de Direito da Universidade de São
Paulo, com muita propriedade afirmou que “nem tudo são espinhos e dificuldades” no uso
de meios eletrônicos nas operações financeiras internacionais. Afinal, o Estado poderia
regular como as transações deveriam ser realizadas e monitoradas, de modo que o controle
a posteriori não apresentaria perplexidades. Baptista deixou um convite para a comunidade
jurídica explorar uma outra forma de controle, mais sutil e complexa: “as regras de
conduta, dirigidas às pessoas, via computador”.
Nesta dissertação, tal convite foi aceito, propondo-se o desdobramento
dessa modalidade de controle, aqui chamada de “regulação pela arquitetura”.
2.1. Internet: um sistema artificial
O homem não apenas encontra o mundo como ele é, mas também busca
compreendê-lo e transformá-lo. Essa capacidade transformativa encontra limites físicos,
como a escassez de certos minerais, a força da gravidade ou a reatividade de certos
elementos químicos. Tais limites físicos são menos determinantes no potencial de
transformação em sistemas informacionais, que são artificiais e, portanto, mais
influenciados pela ação humana em sua arquitetura.
O mundo percebido através de uma Tecnologia de Informação e
Comunicação11 – TIC é uma representação por ela intermediada. Na intermediação, a
11 As Tecnologias de Informação e Comunicação fazem parte de um campo relacionado à tecnologia e
aspectos de gerenciamento e processamento de informações.
15
tecnologia pode ser aplicada para moldar a representação. É o fenômeno da regulação pela
arquitetura.
Para facilitar o entendimento do conceito de regulação pela arquitetura, dois
exemplos são apresentados.
Uma avançada técnica de regulação pela arquitetura é realizada por sistemas
de gerenciamento de direitos digitais (Digital Rights Management – DRM systems, também
conhecidos como copyright management systems). Tais sistemas basicamente
implementam regras sobre os usos autorizados e proibidos para determinados arquivos
digitais. Um dos mais conhecidos12 atualmente no mercado é o sistema FairPlay, da
empresa Apple Computer, inserido na tecnologia multimídia de seu popular aparelho
iPod13 e sistema iTunes14. Cada arquivo de música adquirido através da iTunes Music
Store15 é codificado com o FairPlay, que impede os usuários de ouvir os arquivos em
outros computadores não autorizados, incluindo outros aparelhos portáteis concorrentes da
Apple Computer. Adicionalmente, o FairPlay estabelece as seguintes proteções: a faixa de
música protegida pode ser copiada em um número infinito de iPods, porém pode ser
executada em até cinco computadores autorizados simultaneamente; pode ser gravada em
um número infinito de vezes em uma mídia compact disc (CD), entre outras. Essa
regulação pela arquitetura impede o usuário de ouvir sua música em um aparelho
concorrente.
Um segundo exemplo de regulação através da arquitetura, através da
Internet, é a limitação do uso de sistemas de comunicação para fins profissionais em uma
empresa que bloqueia o acesso à navegação de certos web sites na Internet. Partindo do
pressuposto de que o localizador de um web site que contenha a expressão “mail” se refere
a um serviço de correio eletrônico web (webmail)16, é possível adicionar um comando para
que as informações relacionadas a tais web sites sejam bloqueadas de modo a impedir que
12 Além do FairPlay, existem outros sistemas de gerenciamento de direitos digitais que podem impor outras formas de controle, como limites ao número de vezes que um livro digital pode ser impresso, ou transmitido por e-mail. 13 iPod é a marca de um reprodutor de mídia digital portátil comercializado pela Apple Computer. 14 iTunes é o software embutido no iPod utilizado para carregar arquivos digitais de música, fotos, vídeo,
gerenciando uma biblioteca de dados e também com a função de copiar músicas de compact discs (CDs) para o iPod.
15iTunes Music Store é a loja online da Apple Computer sincronizada com o sistema iTunes para venda de arquivos digitais de músicas.
16Como, por exemplo, www.gmail.com, www.hotmail.com, e-mail.uol.com.br (grifos nossos).
16
o usuário obtenha acesso a seu e-mail particular, ficando, portanto, vinculado ao uso do
sistema de correio eletrônico corporativo17. Essa regulação pela arquitetura impede o
usuário de obter acesso a seu e-mail.
Em ambos os exemplos, o resultado final do controle pretendido não é
necessariamente perfeito. No primeiro caso, os usuários poderiam desenvolver programas
de computador para burlar as limitações do sistema FairPlay. Note-se que não é necessário
que cada indivíduo desenvolva a expertise para ele mesmo criar um programa de contorno
das limitações. Uma vez que um programa seja desenvolvido por um especialista, ele pode
ser distribuído pela Internet para que outros usuários o utilizem18. No exemplo do
funcionário que pretenda utilizar um webmail que escape ao controle prévio de filtragem
do administrador do sistema, basta encontrar algum serviço de e-mail que não contenha em
seu localizador a expressão “mail”19, apenas esperando que seu uso não seja descoberto
pelos administradores.
Entretanto, mesmo em tais exceções, o que se deve observar é que o mundo
representado através de uma mídia digital pode estar sujeito a alguma ferramenta de
controle. Quando o usuário utiliza algum recurso para contornar o controle prévio que a ele
se pretendia impor, a ferramenta de controle final acaba sendo a técnica de contorno20, que
se sobrepõe à técnica de controle original.
Na competição entre criadores de proteções tecnológicas e aqueles que
desenvolvem e divulgam formas de contornar as proteções, não interessa para o
entendimento do conceito de regulação pela arquitetura quem é o vencedor final. Ao
contrário, o que se pretende ressaltar é que a experiência de um usuário diante de um
sistema digital de Tecnologia de Informação e Comunicação – TIC é fortemente limitada
17 Muitos escritórios de advocacia, por exemplo, para manterem informações de sigilo profissional de seus
clientes em seus sistemas informáticos, utilizam a técnica mencionada, evitando o acesso de funcionários a web sites de e-mail particular, com o intuito de impedir que arquivos confidenciais sejam transmitidos por rotas que não sejam monitoradas pelo administrador do sistema.
18 No começo de 2004, Jon Johansen, conhecido por quebrar a proteção de discos DVD, descobriu uma maneira de contornar a proteção do DRM FairPlay. Mais informações em iTunes DRM cracked wide open for GNU/Linux. Seriously. The Register.
19 Como o serviço fornecido pela empresa alemã www.gmx.net por exemplo. 20 Ressaltamos que nas lutas entre aquele que protege uma informação e aquele que procura escapar à
proteção instalada, não apenas ferramentas de proteção e quebra de proteção são usadas. Em casos de fraudes, uma técnica muitas vezes utilizada explora o lado humano (social engineering), e não a vulnerabilidade tecnológica.
17
de acordo com as regras previamente determinadas pelos programadores de tal sistema
usando a regulação através da arquitetura.
Essas regras previamente determinadas não são neutras.
2.2.Crítica às visões neutras e unilaterais em relação à tecnologia
“Armas não matam pessoas. Pessoas é que matam pessoas”. Este é um dos
mantras associados à idéia da neutralidade tecnológica21. Para movimentos como o
Tecnorrealismo22, devemos fugir do mito da neutralidade, da crença de que artefatos
inanimados são neutros e não estimulam determinados tipos de comportamento. Ao
contrário, as tecnologias são repletas de conseqüências, algumas desejadas e outras
imprevistas.
É antiga a preocupação do homem com os impactos sociais trazidos por
tecnologias: Sócrates apud Platão (2003, p. 118) conta a história do rei egípcio Tamuz, que
continuamente analisava as invenções do deus Thoth, aprovando-as ou não. A escrita é
apresentada com grande entusiasmo por Thoth como uma fórmula infalível para a memória
e sabedoria do povo egípcio. O faraó, receoso, contra-argumenta:
Grande artista Thoth! Não é a mesma coisa inventar uma arte e julgar da utilidade ou prejuízo que advirá aos que a exercerem. Tu, como pai da escrita, esperas dela com o teu entusiasmo precisamente o contrário do que ela pode fazer. Tal coisa tornará os homens esquecidos, pois deixarão de cultivar a memória; confiando apenas nos livros escritos, só se lembrarão de um assunto exteriormente e por meio de sinais, e não em si mesmos. Logo, tu não inventaste um auxiliar para a memória, apenas para a recordação.
21 Não se deve confundir essa pretensa neutralidade tecnológica com o “princípio da neutralidade” referido na
dissertação como aquele em que a rede de comunicações não realiza discriminação sobre a natureza dos dados a serem transmitidos. O princípio da neutralidade está relacionado ao princípio fim-a-fim e será analisado em maiores detalhes oportunamente.
22 O Tecnorrealismo é um dos movimentos que busca a compreensão das implicações sociais e políticas das tecnologias de forma a alcançar um maior controle sobre a construção do futuro, analisando como as novas tecnologias podem auxiliar ou prejudicar a qualidade de vida pessoal, comunitária e as estruturas econômicas, políticas e sociais. Disponível em <http://www.technorealism.org>. Acesso em 15.01.2006.
18
Valendo-se da história de Fedro, na introdução de Technopoly – The
Surrender of Culture to Technology, Neil Postman (2000, p.13) alerta sobre a existência de
muitos Tamuzes e Thoths em nossa sociedade. Os tecnófobos e tecnófilos ignoram a
coexistência tanto de valores positivos como negativos nas tecnologias.
Ao invés de buscar uma distinção dual entre benefícios e malefícios, nesta
dissertação, o intuito será fazer uma análise atenta das múltiplas forças e valores que a
moldaram, quais efeitos a regulação através da arquitetura atual traz e como o direito
internacional público pode ser usado para adequação desta forma regulação aos princípios
jurídicos que melhor atendam ao interesse público.
2.3. Regulação a priori e a posteriori
A respeito de aplicação de controle jurídico a posteriori de realizações
jurídicas intermediadas por meios eletrônicos, não há grande dificuldade, sendo que com a
devida perícia técnica, os institutos podem ser empregados com relativa facilidade,
existindo apenas algumas lacunas que com a maturidade legislativa serão superadas. A
regulação a posteriori não é o foco da dissertação, que é dedicada a uma técnica jurídica de
menor obviedade: o efeito a priori na regulação pela arquitetura.
O efeito regulatório a priori que a tecnologia possibilita foi assim suscitado
na pioneira tese de Baptista (1986, p.120) sobre as Transferências Eletrônicas
Internacionais de Fundos (“TEIF”):
[...] Os controles ‘a posteriori’ não representariam problema.
Já no que se refere aos controles prévios não se pode dizer o mesmo. O fato de que as TEIF podem ser originadas quer de um cartão de crédito, quer de um terminal situado em um estabelecimento comercial ou industrial qualquer, ou mesmo em terminais abertos ao público dia e noite, apresenta problemas que deverão ser resolvidos não só em termos regulamentares, mas, também, em termos de programação. Aqui, coloca-se um interessante problema para os estudiosos de Teoria Geral do Direito, o da possibilidade de existência de regras de conduta, dirigidas às pessoas, via computador!
O desafio deixado por Baptista é intrigante e não pode ser devidamente
enfrentado sem as contribuições de Miguel Reale (1968, 1974, 1998, 1999).
19
2.4. Tridimensionalidade do Direito
Através da técnica da Teoria Tridimensional do Direito estruturada por
Reale (1968) é possível o destrinçar das forças regulatórias que moldam a tecnologia,
imprimindo-lhe valores em sua criação e regulando sua aplicação.
O fenômeno jurídico, qualquer que seja a sua forma de expressão, requer a
participação dialética do fato, do valor e da norma. Reale (1968, 1974, 1999) descreve com
originalidade o relacionamento entre os três componentes.
Enquanto para as demais fórmulas tridimensionalistas, por ele descritas
como genéricas ou abstratas, os três elementos se vinculam como em uma adição, quase
sempre com prevalência de algum deles. Já em sua concepção, chamada de específica ou
concreta, a realidade fático-axiológico-normativa se apresenta como uma unidade,
havendo nos três fatores uma implicação dinâmica. Cada qual se refere aos demais, e por
isso, só há sentido no conjunto. As notas dominantes do fato, valor e norma estão,
respectivamente, na eficácia, fundamento e vigência.
Para a teoria, toda experiência jurídica pressupõe sempre um elemento de
fato, ordenado valorativamente em um processo normativo. O direito não possui uma
estrutura simplesmente factual, como querem os sociólogos, ou valorativa, como
proclamam os idealistas, e nem mesmo normativa, como defendem os normativistas. Todas
essas visões são parciais e não revelam individualmente toda a riqueza do fenômeno
jurídico, que congrega aqueles componentes, mas não em uma simples adição. Juntos vão
formar uma síntese integradora, na qual cada fator é explicado e influenciado pelos demais
e pela totalidade do processo.
A Teoria Tridimensional do Direito é didaticamente apresentada por Reale
(1999, p. 65) em Lições Preliminares de Direito
a) onde quer que haja um fenômeno jurídico, há, sempre e necessariamente, um fato subjacente (fato econômico, geográfico, demográfico, de ordem técnica, etc.); um valor, que confere determinada significação a esse fato, inclinando ou determinando a ação dos homens no sentido de atingir ou preservar certa finalidade ou objetivo; e, finalmente, uma regra ou norma, que representa a relação ou medida que integra um daqueles elementos ao outro, o fato ao valor;
b) tais elementos ou fatores (fato, valor e norma) não existem separados uns dos outros, mas coexistem numa realidade concreta;
20
c) mais ainda, esses elementos ou fatores não só se exigem reciprocamente, mas atuam como elos de um processo [...], de tal modo que a vida do Direito resulta da integração dinâmica e dialética dos três elementos que a integram.
A norma, assim, é uma ordenação de fatos, segundo valores.
Desenvolvendo variações da concepção proposta por Reale, é possível
afirmar que, dada a interação entre as três dimensões regulatórias, duas outras assertivas
são igualmente verdadeiras: (i) o fato é influenciado por normas e valores e (ii) os valores
estão sujeitos à norma e ao fato.
Existe, assim, uma interação entre as três dimensões apresentadas. Ao
cuidar da análise da definição de padrões tecnológicos na governança da Internet, não
apenas será levado em consideração o plano normativo mas também o plano valorativo e,
principalmente, o plano fático que é onde a tecnologia é moldada conforme interesses de
seus arquitetos. A aplicação do plano normativo sobre o fato deve atentar para quais efeitos
o próprio Direito pretende receber do fato por ele influenciado.
A interação entre as dimensões deve ser harmônica e conduzida como uma
arte. Seu desequilíbrio pode gerar resultados indesejados, como uma ilegítima supressão da
norma em função do fato: se a norma jurídica protege a propriedade contida dentro de uma
gaveta cerrada, não é a invenção de uma gazua que, sendo incompatível com a norma, deve
revogá-la23. Assim, as novas tecnologias não devem suprimir o ordenamento jurídico
existente somente por possibilitarem, no plano fático, uma conduta diversa do que a
prescrita na legalidade.
Exercendo um papel semelhante ao do rei Tamuz, o plano valorativo avalia
as possibilidades técnicas e conduz à adoção de determinados padrões. Dada a sua
importância, a cautela é necessária para evitar juízos precipitados, inconseqüentes ou
unilaterais, como narrado em Fedro. Faz-se necessário, assim, um diálogo entre as
múltiplas partes interessadas (“multistakeholder”)24 que busque um consenso acerca dos
23 Essa discussão, no contexto dos sistemas de Digital Rights Management, leva doutrinadores a defender o
direito de burlar os sistemas para exercitar o fair use, exceção do Common Law para as regras de copyright. Mais informações em: <http://www.eff.org/IP/DRM/fair_use_and_drm.html>. Acesso em 16.01.2006.
24 De grande debate recente, o conceito multistakeholder vai além do tradicional conceito de multilateralismo que indica que apenas Estados participam. O debate multistakeholder inclui também as organizações internacionais, sociedade civil e setor privado.
21
rumos que a Internet deve tomar, definindo assim princípios a seguir e objetivos a serem
atingidos.
Não se pretende realizar o estudo valorativo com profundidade, pelas
implicações no campo da ética e de modelos morais que merecem estudos à parte25. No
Capítulo 7 é mostrada a importância do vetor valorativo no caso do princípio de arquitetura
de rede fim-a-fim, pois diferentes benefícios e riscos estão envolvidos em sua manutenção,
supressão ou ausência de ação normativa.
Quanto ao plano fático, é de fundamental importância a teoria Code is Law,
de Lawrence Lessig (1999), professor da Stanford Law School, que reforça a importância
da tecnologia, o código (code) no processo de regulação pela arquitetura.
2.5. A força do código na regulação pela arquitetura
A análise da teoria de Lessig (1999) sob a perspectiva proposta por Reale
(1968) está centrada no plano fático.
Tal como Reale, Lessig reconhece a existência de diversas forças no
processo de regulação, a saber: (i) valores sociais; (ii) norma; (iii) arquitetura; e (iv)
mercado. Assim, o plano fático de Reale é desmembrado em “arquitetura” e “mercado” por
Lessig. Os efeitos regulatórios do mercado são de menor importância para a compreensão
de sua teoria, que é focalizada na arquitetura.
Os valores sociais, se desrespeitados, implicariam estigmas impostos pela
comunidade; a norma violada implicaria sanção; a arquitetura imporia restrições físicas e
lógicas e o mercado faria seu papel regulatório pelo preço. Para elucidar, é analisado
brevemente como cada um dos fatores influencia a decisão de acender um cigarro:
Pela dimensão normativa, o fumo é restrito em ambientes fechados e a
venda de cigarro é proibida a menores de idade. As normas de convívio social reprimem o
25 Cf., entre outros, Jacques Berleur, Penny Duquenoy e Diane Whitehouse, Ethics and the Governance of the
Internet. Tom Dedeurwaerdere, Ethics, Social Reflexivity and Governance of the Information Society, A Reflexive criticism of the institutional framing of the Internet. .
22
fumo dentro de um automóvel junto com não fumantes, ou durante uma refeição. O
mercado influencia no preço e variedade de cigarros disponíveis. Finalmente, os limites da
tecnologia, da arquitetura dos cigarros, encontram-se no aroma, na quantidade de nicotina
e nos seus efeitos de dependência química. Dos elementos apresentados, alguns têm mais
influência do que outros; porém, uma análise completa considera todos.
A legislação destinada à regulação direta estabelece que é proibido o fumo
em recinto coletivo, privado ou público, salvo em área destinada exclusivamente a esse
fim, devidamente isolada e com arejamento conveniente. Diante da possibilidade fática de
cigarros serem fumados em um restaurante, por exemplo, e da valoração social de uma
inconveniência, é produzida uma norma que restringe esse comportamento. Em situações
em que não há a possibilidade fática do fumo (e.g. em um mergulho submarino) ou em que
não haja uma repressão social (e.g. em ambientes abertos), não existe manifestação
normativa.
A regulação indireta exercida pela norma buscaria influenciar as outras
forças regulatórias: o governo poderia criar uma campanha de âmbito nacional visando
alertar a população sobre os efeitos maléficos do fumo, modificando assim as normas
sociais.
A regulação indireta da norma sobre a arquitetura seria a exigência de
redução do nível de nicotina e fiscalização química dos componentes utilizados na
fabricação dos cigarros, garantindo que a dependência química seja menor e haja,
conseqüentemente, uma redução em seu consumo.
Finalmente, realizando o desmembramento do plano econômico de acordo
com a teoria de Lessig, a imposição de altos tributos, que são por fim repassados aos
consumidores, contribui para uma redução no consumo do produto.
Cada uma das ações apresentadas implica um custo de oportunidade e a boa
governança equilibra as formas, dosando-as e aplicando-as de forma sistemática, obtendo
resultados otimizados, guiando e restringindo comportamento através de processos e
instituições formais e informais. Essa governança deve ser transparente, principalmente no
que concerne à regulação indireta, que é sutil.
Considerando-se que a realidade percebida através de uma Tecnologia de
Informação e Comunicação – TIC é uma representação por ela intermediada e que na
intermediação a tecnologia pode moldar a representação, as relações intermediadas pela
23
Internet são mais influenciadas pela regulação pela arquitetura. Daí a importância da
arquitetura no processo de governança.
A forma como o sistema é projetado implica diferentes liberdades e
controles. Pode-se afirmar que aquele que detém conhecimento ou possibilidade de
modificar os protocolos de comunicação detém mais poder, da mesma forma como nos
dois primeiros exemplos trazidos: o usuário que tem acesso a ferramentas de contorno dos
sistemas de gerenciamento de direitos digitais ou o funcionário que usa os recursos
informáticos da empresa contornando as tentativas de bloqueio dos administradores do
sistema.
Aquele que controla a dimensão fática (arquitetura tecnológica) detém
grande força no controle da Internet exercendo regulação pela arquitetura.
Lessig (1999, p. 89) apresenta a aplicação do modelo regulatório para
relações intermediadas pela Internet da seguinte forma:
A norma regula normalmente através do direito autoral, direito criminal e
todos os ramos do Direito que continuam a regular a posteriori. Os valores também
influenciam o comportamento, de modo que certas mensagens sobre política não são bem
vindas em grupos de discussão sobre tricô. Existem sanções sociais aplicáveis pela
comunidade com quem se relaciona através da Internet. Os mercados regulam
normalmente ao distribuir conteúdo em áreas abertas ao público geral e áreas exclusivas
para assinantes. A audiência de certos web sites permite realização de publicidade e
melhora na qualidade do serviço. Finalmente, a analogia para a arquitetura na Internet é o
código, o software e hardware envolvidos na troca de informações.
Em alguns web sites é necessário digitar uma senha para obter acesso. Em
outros, é possível a visita independentemente de identificação. Em alguns serviços, como
no de vendas da loja Amazon.com, as compras recentemente realizadas e itens analisados
são cadastrados e utilizados como base de pesquisa para que o sistema eletrônico
identifique um determinado padrão do comprador e possa fazer recomendações
automáticas dentro desse leque de interesse. Mudanças de configuração impedem a
Amazon.com de proporcionar esse serviço diferencial. Em alguns web sites é possível
realizar uma comunicação segura através de criptografia e em outros esse recurso não está
disponível. O código, software, protocolos ou arquitetura são o que definem essas
24
características, tornando certos tipos de comportamento possíveis ou impossíveis. Nesse
sentido, a arquitetura é uma força regulatória.
A arquitetura tecnológica original da Internet vem sofrendo alterações que
tendem a modificar o controle da rede.
Para que se entenda a tendência de modificação do controle, inicialmente
será analisado, no Capítulo 3, a arquitetura original da Internet e como ela favoreceu a
criação e inovação. Antes, porém, é válido um adendo sobre uma noção geralmente
confusa: o “ciberespaço”.
2.6. A possibilidade de controle
Apesar de ampla aceitação hodierna da teoria Code is Law, no começo da
década de 1990, a artificialidade do ciberespaço enquanto sistema criado pela vontade
humana, e portanto sujeito às modificações desejadas pelo homem, não foi adequadamente
entendida. Diversos observadores compartilhavam a percepção de que a Internet seria um
“ciberespaço” caótico e incontrolável, e que qualquer tentativa de sua regulação estaria
destinada ao fracasso.
Nesse sentido, foi escrita a Declaração de Independência do Ciberespaço
por John Perry Barlow (1996), direcionada aos governos do mundo industrial. Segundo o
documento, os governos não seriam nem legítimos, bem vindos ou sequer capacitados para
exercer qualquer tipo de regulação. Referido documento não possui a natureza jurídica das
declarações de independência reconhecidas pelo direito internacional público, mas sua
leitura é fundamental para um contato com determinados ideais que foram postos à
discussão no momento histórico situado, aproximadamente, entre 1995 a 1997, em que
uma transição modificou o inicial ambiente pretensamente anárquico para iniciar o
fortalecimento de um processo de governança.
25
Ainda, freqüentemente era argumentado que as atividades realizadas no dito
“ciberespaço” ignoravam as barreiras territoriais26, dificultando ou impossibilitando a
identificação dos elementos de conexão do direito internacional privado para determinar
quais regras seriam aplicáveis às relações jurídicas eletrônicas.
Mas a vida social no ciberespaço se intensificou ao longo da década de 90 e
então esse entendimento desapareceu paulatinamente. É entendido que os governos podem
e devem influenciar a arquitetura, a construção do ciberespaço, em contraste com o
entendimento anterior de impotência. Mais ainda, não apenas os governos, mas também as
organizações internacionais, sociedade civil e setor privado são reconhecidos todos como
partes interessadas (stakeholders) com papéis e responsabilidades comuns no processo de
governança da Internet.
Ainda com relação à Declaração de Independência do Ciberespaço e
considerando que diversos juristas27 fazem referência ao “ciberespaço” alternativa e
indistintamente à Internet, apresentaremos breve crítica ao uso deste termo, que não deve
ser confundido com a Internet para as finalidades desta dissertação.
2.7. Derrubando o mito do ciberespaço
“Ciberespaço” é um termo que ganhou popularidade com o livro
Neuromancer do escritor de ficção científica William Gibson para descrever um espaço
eletrônico oposto ao espaço concreto em que as pessoas são feitas de carne, chamado
“meatspace”. O “ciberespaço” de Gibson é um local de dimensões infinitas, sem elementos
físicos e formado por elétrons, microondas e pulsos de luz.
A idéia por trás do “ciberespaço” de Gibson é antiga e alguns filósofos a
associam à alegoria da caverna de Platão talvez uma das primeiras realidades conceituais,
26 Cf., entre outros, artigo de Tarcisio Queiroz Cerqueira, O Direito do ciberespaço. O ponto de vista pelo
qual o ciberespaço é considerado como um lugar foi criticado por Demócrito Reinaldo Filho, em O Cyberspace como um lugar, um estado mental ou meios de comunicação?
27 Cf., entre outros, Dan Hunter, Cyberspace as a Place, and the Tragedy of the Digital Anticommons, Paul Schwartz, Privacy and Democracy in Cyberspace. Tamar Frankel, The Common Law and Cyberspace.
26
em que também pode ser incluída a idéia de noosfera28. A abordagem filosófica do
“ciberespaço” é rica e passa por diversos teóricos. Paralelamente, a indústria do
entretenimento também produziu obras que exploram a abstração metafórica para uma
realidade virtual29, como no longa-metragem Tron dos estúdios Disney, em que um
programador é digitalizado por um raio e transferido para dentro de um computador.
Apesar da plasticidade desse conceito, o “ciberespaço” de Gibson deve ser
completamente afastado e ignorado para os objetivos pretendidos nesta dissertação. As
analogias à ficção científica devem ser muito cautelosas.
Estudos científicos que se basearam na analogia do “ciberespaço”
semelhante ao de Gibson chegaram a concluir que seria necessário um novo corpo jurídico
específico para o mundo virtual distinto do mundo físico. Para David Johnson e David Post
(1997, p. 13), muitos dos conflitos levantados por comunicações eletrônicas
transfronteiriças poderiam ser resolvidos se o “ciberespaço” fosse concebido como um
local distinto para propósitos de análise jurídica e reconhecida uma borda divisória entre o
mundo físico e o ciberespaço. Com a abordagem proposta, os autores evitariam a discussão
sobre onde no mundo geográfico uma transação de Internet ocorreu. Tais iniciativas não
ganharam suporte e foram posteriormente criticadas (SARAT A., DOUGLAS L.,
UMPHREY M., 2003).
Andrew Shapiro (1999, p. 31) reconhece que tais sentimentos são bem
intencionados e até compreensíveis na medida em que usuários da Internet podem ter a
sensação de que estão em outro local quando interagem online, e que existem dificuldades
jurídicas devido às comunicações transnacionais. Mas que seria um engano conceitual e
prático erguer uma barreira divisória entre a atividade online e offline.
Portanto, em observância do rigor científico, a dissertação não utilizará uma
simples analogia à ficção científica ou partirá de conhecimentos gerais e superficiais sobre
a Internet. Ao contrário, analisará a Internet conforme sua arquitetura funcional,
possibilitando a compreensão e separação das múltiplas formas e funções da rede ao longo
dos Capítulos 3 e 4. Serão abordados conceitos técnicos como protocolos de comunicação
28 A idéia de noosfera é conexa a uma “esfera do pensamento humano”. Para o teólogo Pierre Teilhard de Chardin, a noosfera é relacionada a uma consciência transhumana que emerge da integração de todas as mentes na Terra. 29 Pierre Lévy (1996) define o processo de virtualização como uma “heterogênese, um devir outro, processo de acolhimento da alteridade”, sendo que o “virtual” não é oposto a “real”. O “virtual” está oposto ao “atual”: enquanto a atualização é a solução de um problema não anunciado, uma produção de novas qualidades, a virtualização é seu movimento inverso, uma “elevação à potência” da entidade considerada.
27
como o X.25 e Transmission Control Protocol / Internet Protocol - TCP/IP, as técnicas de
troca de informação e decisão por quase-consenso (rough consensus) dos Requests for
Comments - RFCs, o conceito de camadas de estrutura de rede e diversos órgãos e
processos envolvidos nos processos funcionais da Internet que atraíram o interesse dos
atores empresariais, como o Sistema de Nomes de Domínio – DNS e a controversa Internet
Corporation for Assigned Names and Numbers – ICANN.
A descrição adotada buscará facilitar a compreensão do texto ao leitor não
familiarizado com termos técnicos e informáticos.
2.8. Conclusão deste capítulo
No Capítulo 2 foi apresentado o primeiro pressuposto da dissertação: a
arquitetura escolhida implica efeitos que ultrapassam a dimensão técnica de
funcionalidade, mas principalmente de controle, com efeitos normativos. Denominamos
esse fenômeno de regulação pela arquitetura.
A Internet é criada de acordo com diversos interesses e valores. Sua
tecnologia reflete esses interesses e deve ser considerada em abordagens regulatórias.
Nos próximos Capítulos da dissertação, o problema da ausência de uma
forma adequada para a tomada de decisão, no tocante à influência dos interesses e valores
já apontados, na arquitetura da rede, é identificado e tratado. Essa ausência permite que
benefícios sejam obtidos pelos agentes mais articulados em moldar a Internet de acordo
com seus interesses. No aperfeiçoamento da governança da Internet, a atual competição
deve dar lugar à colaboração.
28
3. DINÂMICA
Internet e as novas águas do rio de Heráclito
Estruturada a solução ao problema da regulação pela arquitetura através da
Teoria Tridimensional do Direito, é necessário empregá-la no caso concreto, estabelecendo
como a dinâmica entre fato, valor e norma deve se desenvolver de forma legítima
internacionalmente, por ser a Internet uma rede de escopo global.
A dimensão fática, o código da Internet, foi historicamente desenvolvida de
modo colaborativo por cientistas acadêmicos. Com a expansão e evolução da Internet,
novos interesses são identificados e a regulação através da arquitetura da Internet hoje
carece de um mecanismo institucional adequado.
Neste Capítulo 3, será apresentada uma idéia geral sobre o funcionamento
da Internet para uma maior familiarização com o tema e os componentes técnicos que
serão explorados oportunamente.
Ênfase é dada para que se note que inicialmente a Internet surgiu como um
projeto militar norte-americano, com valores de resistência que pautaram o
desenvolvimento de sua arquitetura. Conforme novos interesses entram em jogo, novos
valores e conseqüentemente novos modelos de arquitetura são introduzidos, produzindo
competição em certos casos, que serão analisados nos Capítulos 4 e 5.
No início, alguns poucos cientistas moldaram a existência da Internet.
Conforme mais interesses foram agregados, diferentes estruturas com maior democracia,
responsabilidade e legimitidade são necessários para atender às expectativas de
governança.
Como visto no Capítulo 2, a Internet é um produto artificial projetado
conforme os interesses dos grupos que sobre ela exercem a maior influência. Por toda a
história da Internet é claro o seu caráter dinâmico e justamente por isso é que se deve
buscar um modelo regulatório de manutenção e desenvolvimento que continue atendendo
ao interesse público que não seja capturado pelos interesses de poucos stakeholders.
29
O que se coloca na dissertação deve ser entendido não apenas para a
Internet, mas também para as chamadas tecnologias de Next Generation Networking -
NGN, expressão que se refere a arquiteturas de rede de computadores atualmente em
desenvolvimento destinadas à comunicação de dados como voz, dados e vídeo. Seu
funcionamento também, como na Internet, é baseado em transmissão por pacotes de dados,
porém com mecanismos adicionais que buscam garantir a qualidade do serviço de
transmissão.
3.1. Definição de Internet
Ao invés de entender a Internet como um objeto fixo, parece mais adequado
aproveitar a noção trazida por Platão a respeito do pensamento de Heráclito30: panta rhei
(“tudo flui”). Assim como o homem nunca se banha duas vezes no mesmo rio, a Internet
nunca é a mesma, está em constante mutação. Na filosofia de Heráclito, a realidade não é
exatamente uma coleção de coisas, mas sim de processos. Não devemos entrar na falácia
de substanciar a natureza em objetos duradouros e perenes, pois o mundo não é composto
de coisas duráveis e estáveis mas de forças fundamentais e várias e fluidas atividades. O
processo é fundamental: o rio não é um objeto, mas um fluxo em constante mudança.
Tentativas de definição da Internet tenderão a capturar um momento de sua existência, que
é diferente de como ela foi no passado e de como pode ser no futuro.
30 É necessário observar que apesar de comum atribuir a alegoria do rio como aquela em que o filósofo havia dito que o homem não se banha duas vezes no mesmo rio, tal não é a mais fiel representação das idéias de Heráclito, mas sim a interpretação feita por Platão no tocante ao fluxo universal em Crátilo (402a): “Heráclito, creio, diz que todas as coisas passam e nada permanece e, comparando os entes (tà ónta) ao fluxo de um rio, diz que você não pode entrar duas vezes no mesmo rio”. Para o filósofo Hélio Schwartsman, em São Paulo, o rio e Heráclito, o trecho que representa o pensamento de Heráclito com maior fidelidade é o fragmento B12 que diz “Para os que entram nos mesmos rios, outras e outras são as águas que correm por eles”.
30
Atualmente, a Internet31 é a maior rede de computadores32 mundial. A
Internet é constituída por milhares de redes menores comerciais, acadêmicas, domésticas e
governamentais. Assim, não podemos exatamente chamar a Internet de uma rede: ela é
uma rede de redes, todas interconectadas direta ou indiretamente. Uma rede de
computadores consiste em um grupo de computadores conectados de modo que possam
comunicar-se de alguma forma. O sistema da Internet interconecta redes de computadores
que transmitem dados por uma técnica chamada de “comutação de pacotes” (packet
switching) usando uma série de protocolos padronizados.
Não se deve confundir a Internet com o equipamento (hardware) que a
sustenta, como computadores, fios e cabos. Ao invés de entender a Internet enquanto
hardware, dizemos que a Internet é baseada no software que garante a transmissão de
dados pelas redes que a compõe.
Assim, hoje definimos Internet como o sistema global de comunicação de
dados formado pela interconexão de redes públicas e privadas de telecomunicação através
da utilização do TCP/IP e demais protocolos necessários33.
As comunicações da Internet precisam definir um protocolo, que é um
padrão que permite a conexão, comunicação e transferência de dados entre dois pontos. O
amplo uso e grande difusão dos protocolos de comunicação é um pré-requisito para a
existência da Internet. O termo TCP/IP se refere ao conjunto de protocolos Internet
Transmission Control Protocol (TCP) e Internet Protocol (IP). O protocolo IP34, inventado
em 1974 pelos cientistas Vinton Cerf e Robert Kahn, divide mensagens em pequenas
frações, os pacotes, e atribui um cabeçalho a cada um desses pacotes com dados de
endereçamento de destinatário e remetente enviando-os na base do melhor esforço. Se
31 A Internet não é uma pessoa jurídica, tal como a Swift, sociedade civil de direito belga fundada em 1973
com finalidade de operar uma rede internacional de telecomunicações através de computadores, conforme relata Baptista (1986 p.49). Logo, seu tratamento regulatório não é direto, mas sim indireto e complexo.
32 Por “computadores” não apenas fazemos referência ao tradicional computador pessoal em “desktop” com gabinete e monitor, mas também laptops, aparelhos de telefonia celular, blackberry, e outros aparelhos domésticos que cada vez mais vêm sendo conectados à Internet, como geladeiras, carros, banheiras, entre outros que contenham dispositivos computacionais capazes de conexão de seus sistemas à rede.
33 Muitos outros protocolos além do TCP/IP estão envolvidos em comunicações de Internet, como Ethernet para Local Area Networks (LANs) e Frame Relay ou T1 para Wide Area Networks (WANs). O ponto é que, sem um conjunto definido de protocolos, as várias redes não conseguem se comunicar e assim não poderiam formar a rede das redes. O TCP/IP por trás da Internet permite que diversas redes usando diferentes protocolos possam comunicar dados entre si.
34 Detalhes técnicos estão publicamente disponíveis na Internet através do RFC 791.
31
algum pacote for perdido durante a transmissão, a máquina de destino usará um protocolo
relacionado, o TCP, para que a máquina remetente retransmita os pacotes perdidos.
A maioria dos protocolos de comunicação é definida através de
memorandos chamados Request for Comments (RFC) da Internet Engineering Task Force
(IETF). Os RFCs são produzidos de modo distinto dos meios mais formalistas tradicionais:
são escritos por especialistas que participam de grupos de trabalho por iniciativa própria e
revistos de modo comunitário em rede.
A IETF, que não tem uma personalidade jurídica, consiste em um grupo
informal de engenheiros que discute os protocolos em seu tempo livre através de listas de
discussão em e-mail e muito raramente organizam um encontro em alguma cidade,
buscando o consenso sobre o que melhor funciona para os desafios técnicos. Como
desempenha um papel essencial na construção da Internet, será examinada em detalhes ao
final da dissertação.
O projeto da Internet foi realizado por um grupo de pessoas com um
objetivo comum de melhorar a Internet. Essas pessoas tinham uma formação semelhante e
pouca paciência com estruturas formais e jurídicas. Tal sistema informal funciona melhor
quando os temas em discussão são maçantes e aparentemente livres de implicações
políticas. Assim, os cientistas podem deliberar sem pressão externa em um sistema
altamente informal. Conforme a tecnologia alcança maiores segmentos da sociedade, que
entende melhor os impactos sociais das decisões tomadas pelos cientistas isoladamente, as
discussões de governança ficam mais acirradas e os sistemas informais revelam-se carentes
de legitimidade.
3.1.1. Aplicações
É também importante, ao fazer os esclarecimentos iniciais, distinguir a
Internet em si dos tipos de aplicação que operam através dela. Um exemplo claro para
ilustrar essa diferença é o correio eletrônico (e-mail), que é uma aplicação que utiliza a
Internet para a entrega das mensagens eletrônicas. Outra confusão, mais corrente e menos
intuitiva, é relacionada à World Wide Web. Quando se fala em “navegar na Internet”,
32
geralmente se pensa em visualização de web sites por um programa de navegação
(browser) como o Internet Explorer, Netscape Navigator, Mozilla firefox, entre outros.
Mas, assim como o e-mail, o web site é uma aplicação, não devendo ser confundido com a
Internet em si35.
É importante notar que o projeto original da Internet não restringe os tipos
de aplicações que podem ser transmitidas por ela, o que é conhecido como princípio da
neutralidade, relacionado ao princípio fim-a-fim, cujo futuro será analisado na última parte
da dissertação.
3.2. Breve histórico da Internet
Neste Capítulo, não se pretende proceder com um minucioso estudo da
história da Internet36, mas apontar elementos históricos que influenciaram a Internet atual e
apresentar um retrato da Internet original que tende a ser modificado por novos atores que
buscam maior controle.
A Internet não era originariamente um meio para comunicação interpessoal:
ela foi planejada para permitir que cientistas superassem as dificuldades em executar
programas em computadores remotos.
A Internet tem suas origens na Advanced Research Projects Agency -
ARPANET, sua antecedente que se expandiu impulsionada pela comunidade acadêmica
envolvida no seu desenvolvimento. Após definição de soluções de novos protocolos para
comportar o crescimento da ARPANET, os usuários militares se fecharam em uma rede
menor para seus usos batizada de MILNET e a ARPANET se tornou parte de um sistema
maior, a Internet, aberta a um amplo espectro de atividades civis. A Internet comercial,
35 Outras aplicações existem e, caso o ambiente de estímulo à criação continue, novas serão inventadas. Não
entraremos em detalhes, mas existem também outros aplicativos como as redes peer-to-peer (P2P), canais de comunicação direta como o instant messaging e a voz sobre IP (VoIP).
36 Três obras indicadas na bibliografia são Inventing the Internet, de Janet Abbate, When Wizards Stay Up Late (The Origins of the Internet), de Katie Hafner e Matthew Lyon e All About the Internet: History of the Internet, da Internet Society.
33
voltada à comunicação, somente surgiu após um longo processo de reestruturação técnica,
organizacional e política.
A Internet começou como um pequeno projeto, e, portanto, sem necessidade
de governança sofisticada, por se tratar de um assunto local norte-americano envolvendo
interesses militares através da comunidade acadêmica. Não havia preocupação
internacional a respeito da Internet. A historiadora Janet Abbate relata que sequer existia
uma significativa preocupação nacional nos Estados Unidos da América sobre o futuro e
uso da Internet, pois o projeto era apenas conhecido dentro de uma comunidade científica,
e assim o Congresso norte-americano não colocava assuntos relacionados à Internet em
suas pautas de discussão. Esse fator permitiu que forças individuais tivessem grande força
em moldar o atual formato da Internet sem a necessidade de um órgão democrático
representativo.
Dessas forças, merecem destaque as militares e acadêmicas. Como a base
de usuários iniciais era pequena e a política de uso da rede proibia atividades comerciais,
as forças comerciais eram inicialmente fracas e só ganharam relevância significante com o
DNS, a ser analisado no Capítulo 5, e cada vez mais a ponto de ameaçar o princípio fim-a-
fim e a neutralidade, juntamente com as preocupações de segurança e vigilância.
Como mencionado no Capítulo 2, a Internet, como toda tecnologia, é um
sistema artificialmente criado de acordo com a necessidade e filosofia de seus criadores.
Passamos a analisar as forças de influência com um pouco mais de detalhe.
3.3. O vetor militar: resistência, flexibilidade e alta performance
Até 1970, o United States Department of Defense´s Advanced Research
Projects Agency (“ARPA”) havia financiado diversos projetos de conexão remota entre
computadores em universidades e outros campos de pesquisa de computação espalhados
pelos Estados Unidos da América. Foi então criada a proposta de conectar esses campos
através da rede denominada ARPANET, projeto a ser gerenciado pelo cientista Lawrence
Roberts. A pequena empresa de acústica e computação Bolt, Beranek and Newman
(“BBN”) venceu a licitação pelo contrato para construir os nódulos de rede. Em 1967, o
34
pesquisador Paul Baran foi contratado como consultor sobre como o grupo de
planejamento da ARPANET deveria prosseguir com a rede distribuída e comutação de
pacotes.
Valores militares influenciaram muito o projeto, desenvolvimento e uso
tanto da ARPANET como da Internet. Para os militares, a resistência, flexibilidade e alta
performance deveriam prevalecer sobre objetivos comerciais como baixo custo,
simplicidade ou apelo de interface ao usuário final.
Vale lembrar que, na década de 1960, a relação entre os Estados Unidos da
América e a então União Soviética era delicada. A União Soviética havia lançado o satélite
Sputnik em 1957, causando alarde nos Estados Unidos da América sobre um possível
atraso tecnológico e assim aumentando a mobilização de investimento estatal em ciência e
tecnologia. Havia uma preocupação quanto à necessidade de um sistema de comunicações
que resistisse a ataques inimigos. A ARPA foi uma das várias respostas dos Estados
Unidos da América para desafios de ciência e tecnologia da Guerra Fria. Fundada em
1958, a ARPA tinha como missão a manutenção da liderança norte-americana em relação a
seus rivais militares ao perseguir projetos de pesquisa que prometessem avanços
significativos em campos relacionados à defesa. A capacidade do US Department of
Defense em comandar amplos recursos técnicos e econômicos para pesquisa em
computação durante a Guerra Fria foi um fator crucial para o lançamento da Internet.
Nesse contexto, um sistema de “comunicação distribuída” foi desenvolvido
por Paul Baran. A comunicação distribuída é distinta da comunicação convencional (como
em uma rede telefônica), na qual a transferência de dados é concentrada e hierárquica,
usando centrais locais que atendem diversos usuários. Desse modo, um único ataque a uma
central local seria suficiente para desconectar diversos usuários. Já um sistema distribuído
conta com muitos nódulos e várias conexões ligadas a cada nódulo. Essa alta redundância
dificulta cortar o serviço dos usuários através de ataques, pois a destruição de um nódulo
não impediria o fluxo de mensagens, que podem usar uma rota alternativa, já que não
existe um caminho pré-estabelecido para a comunicação.
Outra idéia conceitual na rede de Baran é o uso de comutação de pacotes
(packet switching)37. No sistema, uma mensagem poderia ser qualquer coisa, desde uma
37 Simultaneamente, na Inglaterra, esforços em conceitos semelhantes à comutação de pacotes estavam sendo
realizados através do interactive computing, que enfrentava o problema de altos preços dos equipamentos de computação através de compartilhamento remoto de seus recursos.
35
fala digitalizada a um comando de computação. Como as mensagens seriam todas
transmitidas de forma digital, elas poderiam ser manipuladas de múltiplas formas. Ao invés
de enviar mensagens inteiras de diferentes tamanhos através da rede, Baran propôs que as
mensagens fossem divididas em pacotes, unidades de tamanho previamente fixado.
Mensagens pequenas poderiam ser enviadas em um único pacote. Mensagens maiores
exigiriam múltiplos pacotes. Em cada um, um cabeçalho especificaria o endereço do
destinatário e remetente, assim como outras informações. Os nódulos de transmissão
usariam a informação do cabeçalho para determinar qual caminho cada pacote deveria
seguir para o seu destino. Visto que cada pacote é encaminhado independentemente, os
diferentes pacotes que compõem uma mensagem grande podem ser enviados por diferentes
caminhos. Quando os pacotes chegam ao seu destino, a informação dos cabeçalhos é usada
para ordenar os pacotes de modo a compor a mensagem completa.
Desse modo, as informações não apenas seguiam diversos caminhos mas
também seriam divididas em pequenas porções. Isso fazia com que uma eventual
interceptação não fosse suficiente para a compreensão da mensagem, pois apenas uma
parte seria obtida se outros pacotes tivessem seguido por um caminho não sujeito à escuta.
Além disso, os militares conseguiram a resistência a ataques e flexibilidade com alta
eficiência.
3.4.O vetor da comunidade acadêmica de ciências da computação
O grupo que recebeu recursos e incentivo dos militares para o
desenvolvimento das redes da ARPA consistia de cientistas acadêmicos, que incorporaram
seus próprios valores de coleguismo, descentralização de autoridade e troca aberta de
informação no sistema desenvolvido.
Uma coisa que os principais cientistas de computação tinham em comum
era a crença de que as capacidades de uma nova geração de velozes computadores
poderiam ser usadas para transcender os limites de sistemas de comunicação até então
existentes, o que não era facilmente compreendido por um outro grupo, de engenheiros da
indústria de comunicação. Os engenheiros eram céticos em acreditar que computadores
suficientemente rápidos e baratos seriam disponibilizados no mercado. Portanto, as
36
técnicas de comutação de pacotes, apesar de ligadas à indústria de comunicação, foram
desenvolvidas e aperfeiçoadas pelos cientistas de computação, e não pelos engenheiros de
telecomunicações.
Apesar dessa informação parecer uma mera curiosidade, ela ajuda a
entender os valores que nortearam a forma de agir da comunidade dos cientistas de
computação (conhecidos como Netheads38), muito diferente do que talvez seria feito se a
Internet fosse desenvolvida por engenheiros de telecomunicação (conhecidos como
Bellheads), que representam interesses das grandes empresas de telecomunicação mundial.
Por não estar sob a influência de interesses da indústria de telecomunicação,
a arquitetura da rede foi desenvolvida para acomodar uma variedade de tecnologias
computacionais indistintamente. Isso implicou em um estilo de gerenciamento disperso,
informal e inclusive conferiu ao sistema da Internet a habilidade de adaptação a um
ambiente imprevisível.
Esses valores trazidos pela comunidade acadêmica são altamente
responsáveis pela inovação permitida pela Internet. O vetor acadêmico estimulou a própria
construção do princípio fim-a-fim, pois os usuários eram ao mesmo tempo produtores e
criaram aplicações inovadoras, como o e-mail. Em dezembro de 1970 foi concluído o
primeiro protocolo de comunicações da ARPANET chamado Network Control Protocol
(NCP), que posteriormente seria substituído pelo TCP/IP. Quando a ARPANET terminou
de implementar o NCP entre 1971 a 1972, os usuários da rede finalmente puderam
começar a desenvolver aplicações, como o correio eletrônico (e-mail), que se tornou a
principal aplicação para a rede durante uma década.
Curiosamente, o e-mail não era uma aplicação que havia sido planejada
pelos produtores da rede. Ao invés de ser um produto de planejamento centralizado, foi
desenvolvido pelos próprios usuários.
38 Steve Steinberg assim descreve a diferença entre Netheads e Bellheads (1996): "Em termos amplos, Bellheads são as pessoas originais da telefonia. Eles eram os engenheiros e gerentes que cresceram sobre o olho vigilante da Bell e que continuam a a seguir as práticas do Sistema Bell pelo respeito a seu legado. Eles acreditam em resolver problemas com técnicas dependentes de hardware e em controle de qualidade rigoroso - ideais que formam a base de nosso robusto sistema de telefonia e que são incorporados ao protocolo ATM. Em oposição aos Bellheads estão os Netheads, os jovens que conectaram os computadoes ao redor do mundo para formar a Internet. Esses engenheiros vêem a indústria de telecom como mais uma relíquia que será derrubada pela marcha da computação digital. Os Netheads acreditam em software inteligente ao invés de hardware de força bruta, em roteamento flexível e adaptativo ao invés de controle de tráfego fixo. São esses ideais, afinal de contas, que permitiram que a Internet crescesse tão rapidamente e que estão incorporados no IP - o Internet Protocol". (tradução livre)
37
3.5. Produtores e usuários
Muito do sucesso da Internet pode ser atribuído à habilidade dos usuários
em moldar a rede para que atendesse aos seus objetivos, o que foi permitido pelo princípio
fim-a-fim.
Tipicamente, os usuários são retratados como consumidores agindo em um
mercado, escolhendo um serviço ou produto em detrimento de outros. Geralmente se
assume que os usuários se envolvem apenas após uma tecnologia ser desenvolvida. Mas na
ARPANET não havia distinção pois os consumidores eram os pesquisadores que a usavam
em seu trabalho e portanto estavam diretamente envolvidos em seu desenvolvimento39.
Assim, na rede, os usuários não mais são necessariamente puros
consumidores passivos da tecnologia, mas podem tomar um papel muito ativo na definição
de suas características. De fato, a cultura da Internet desafia a distinção entre produtores e
usuários.
O papel dual de usuários e produtores fez com que fosse adotado um novo
paradigma para gerenciar a evolução do sistema: ao invés de centralizar a autoridade de
projeto a um pequeno grupo de administradores de rede, eles deliberadamente criaram um
sistema no qual qualquer usuário com habilidade e interesse poderia criar uma nova
aplicação. Essa abertura está associada ao princípio fim-a-fim e é fundamental para o
estímulo à inovação.
39 Pode-se dizer que mesmo um sistema de fluxo principalmente unilateral de informações, como é a
televisão, cuja transmissão parte da emissora aos telespectadores, possui um sistema de feedback, que é a audiência. Assim, programas que não recebem suficiente audiência são retirados ou modificados, como acontece com tramas e personagens de telenovelas. Porém, com a Internet, um patamar mais avançado de interação é possível. Os usuários da Internet não apenas caracterizam audiência, como podem também publicar conteúdo em home pages, web sites de social networking como o Orkut, compartilhar música e vídeos, publicar fotos e histórias em weblogs, mas, principalmente, ainda criar novos aplicativos. O software ICQ teve papel fundamental no desenvolvimento de sistemas de mensagens instantâneas e criado por um israelense. O software Napster desenvolvido por um adolescente foi responsável pelo aperfeiçoamento conceito de redes peer-to-peer. O software Skype, que revolucionou o conceito de telefonia por Internet, também foi criado por pequenos empreendedores. Assim, a Internet possibilita um ambiente favorável a pequenos novos competidores (disruptors) mudarem o cenário de dominação das empresas estabelecidas no mercado (incumbents).
38
O ambiente de coleguismo merece ser destacado. Os cientistas também
usavam a ARPANET para compartilhar software. A maior parte dos projetos colaborativos
envolvia a transferência de arquivos de documentos ou programas. Procedimentos de
transferência de arquivos estimulavam a troca informal de arquivos sem a necessidade de
consentimento expresso do autor original, que tacitamente concordava previamente com o
compartilhamento. Sem um potencial de mercado nesta fase inicial, não havia estímulo
para que os usuários-produtores escondessem informações uns dos outros de forma
proprietária: ao contrário, sua reputação na comunidade científica aumentaria conforme
contribuições positivas fossem feitas e para isso a colaboração e troca aberta de
informações é essencial40.
3.6. O surgimento do e-mail
A ARPANET havia sido originalmente implementada para dar aos
pesquisadores acesso a recursos de computação que eram presumidamente escassos.
Ironicamente, porém, muitos locais com ricos recursos informáticos pareciam estar
procurando em vão por usuários. Conforme a década de 70 passava, a demanda para
recursos remotos acabou caindo. Apesar de vários experimentos produtivos usando
hardware e software remotos estarem em andamento, a maioria dos membros da
comunidade ARPANET não estava usando a rede da forma originalmente intencionada,
que era o compartilhamento de recursos, para executar programas em locais remotos.
Se a ARPANET apenas tivesse valor no uso da computação remota,
provavelmente hoje seria esquecida. Porém, a inovação era estimulada e o e-mail surgiu e
rapidamente se tornou o serviço mais popular e influente, ultrapassando todas as
expectativas. Ele tinha muitas vantagens em relação ao serviço de correios ou telefonia.
Era praticamente instantâneo e não exigia que os comunicantes estivessem
simultaneamente conectados, como em uma ligação telefônica.
40 Esse aspecto de colaboração até hoje é vibrante em projetos sem uma finalidade lucrativa direta, como por
exemplo a Wikipedia, uma enciclopédia criada colaborativamente pelos usuários da Internet e o Linux, um sistema operacional criado por programadores espalhados pelo mundo sem remuneração direta.
39
A popularidade do e-mail não tinha sido prevista pelos planejadores da
ARPANET. O próprio organizador da ARPANET, Lawrence Roberts, não havia incluído o
e-mail nos planos originais da rede. Em 1967 ele havia dito que a habilidade de enviar
mensagens entre usuários não era uma motivação importante para uma rede de
computadores científicos (ABBATE, 1999, p.85). Entretanto, o e-mail e as listas de
mensagens foram cruciais para criar e manter um sentimento de comunidade entre usuários
ARPANET.
A surpresa do e-mail revela a importância da manutenção de um ambiente
de inovação de baixo para cima (bottom-up) em que o planejamento não seja hierárquico e
centralizado, pois o planejador raramente consegue superar o potencial que a base de
usuários coletivamente tem de criar e inovar41. Além disso, existe o risco de que aquele
que tem o controle utilize esse poder como um incumbent42 preocupado exclusivamente
com seus próprios interesses evitando novos modelos concorrentes e assim buscando
proteger seus mercados.
Através de inovações descentralizadas e milhares de escolhas individuais, a
antiga idéia de compartilhamento remoto de recursos que propulsionou o projeto
ARPANET foi gradualmente substituída pela idéia de rede não como meio de compartilhar
recursos tecnológicos, mas como um meio para aproximar pessoas. O e-mail foi a base
para a criação de comunidades virtuais pela rede. Mais e mais, pessoas dentro e fora da
comunidade ARPA viam a ARPANET não como um sistema de computação mas como
um sistema de comunicação.
3.7. Meritocracia: Abertura, informalidade, descentralização, “rough consensus and
running code”
41 Tais argumentos são também explorados em Benkler (2002) e Johnson (2003). 42 Em teorias que discutem inovação, o incumbent é aquele que já tem um mercado consolidado com a oferta
de determinados produtos e serviços. Seus novos concorrentes, os disruptors, procuram desenvolver novos produtos e serviços que tenham um diferencial suficiente para ocupar a posição de mercado do incumbent. Para mais detalhes sobre a disputa entre incumbents e disruptors, recomenda-se a leitura de The Innovator`s Dilemma: When New Technologies Cause Great Firms to Fail, de Clayton Christensen, Harvard Business School Press, Cambridge, 1995.
40
Durante os anos 70, Vinton Cerf e Robert Kahn estabeleceram um grupo de
conselho de especialistas em rede chamado Internet Configuration Control Board (ICCB)
para debater os méritos dos protocolos do sistema em evolução. Se houvesse consenso, o
protocolo em exame seria declarado um padrão oficial.
Como se nota, esta fase é caracterizada por um baixo nível de governança e
um poder concentrado nas mãos desses especialistas.
Essa estrutura de administração foi reestruturada entre 1983 a 1985 para
ampliar a participação em decisões sobre o projeto da rede. O pequeno círculo da ICCB foi
substituído por um órgão mais aberto chamado de Internet Activities Board (IAB), que foi
presidido pelo cientista David Clark do Massachusetts Institute of Technology (MIT) por
muitos anos. No IAB, as vozes líderes eram principalmente provenientes dos membros das
comunidades de pesquisa que colaboraram na construção da ARPANET, como o US
Department of Defense, o MIT e a Bolt, Beranek and Newman (BBN) por exemplo. Porém,
a filiação era aberta a qualquer pessoa, em qualquer lugar do mundo, que tivesse tempo,
interesse e conhecimento técnico para participar. Apesar de aumentar aqui o nível de
representatividade, saindo do círculo clerical de especialistas em computação para uma
maior comunidade, ainda assim a forma de deliberação dependia fundamentalmente de
argumentos técnicos colocados nas discussões.
O Internet Activities Board - IAB se tornou um fórum para a discussão de
todos os aspectos da política da Internet, e seus encontros se tornaram altamente populares
na comunidade de redes. Em 1989, o número de pessoas participando de suas atividades
havia crescido às centenas e seus líderes decidiram dividir suas atividades em um Internet
Engineering Task Force – IETF (que cuidaria de desenvolvimento de protocolos e outras
preocupações técnicas) e uma Internet Research Task Force (que seria dedicada ao
planejamento técnico de longo prazo). Padrões para a Internet foram definidos por
consenso, após discussão entre todas as partes interessadas e após os protocolos propostos
terem sido testados na prática, e eles continuaram a ser publicados eletronicamente na
forma de Requests for Comments – RFCs.
Apesar da abertura e transparência da IETF caracterizada sobretudo pelos
RFCs e na forma de realização de suas reuniões, o discurso era realizado em base
predominantemente técnica, o que foi inclusive institucionalizado pela descrição do RFC
3160 intitulado "The Tao of IETF: A Novice's Guide to the Internet Engineering Task
41
Force"43. De forma mais radical, David Clark havia ainda pregava a meritocracia: formas
de representação política eram rejeitadas, e o suporte era dado a um quase-consenso e
código de programação funcional, ao dizer “Rejeitamos reis, presidentes e eleições.
Acreditamos em quase-consenso e código funcional” (tradução livre)44, o que fazia um
certo sentido na fase inicial da Internet em que uma governança mais sofisticada ainda não
era demandada. A IETF será analisada em maior detalhes no Capítulo 7.
Com a privatização e a expansão da Internet no mundo, cada vez mais era
politicamente necessário mover a administração técnica do sistema para longe das mãos do
governo norte-americano (ABBATE, 1999, p. 207). Em janeiro de 1992, a Internet Society
– ISOC, uma organização sem fins lucrativos, passou a supervisionar a IAB e a IETF.
Adicionalmente, a ISOC teria a tarefa de disseminar informação sobre a
Internet ao público geral. A ISOC, IAB e IETF incluíam membros de todos os setores da
comunidade Internet, e a participação internacional nesses três grupos aumentava ao longo
dos anos 90.
Com todas essas mudanças, as estruturas administrativas e técnicas da
Internet permaneceram altamente descentralizadas. Nenhuma autoridade controlava a
operação da Internet como um todo.
Era difícil o desenvolvimento de políticas de administração que pudessem
satisfazer a todos os grupos de interesse (ABBATE, 1999, p. 208). As estruturas
administrativas da Internet estavam em constante mudança desde a privatização e
diferentes soluções estavam sendo tentadas. Abbate (1999) já previa que a autoridade da
ISOC, da IAB, e da IETF permaneceria incerta, visto que muito da arquitetura da Internet
havia sido desenvolvida sob os auspícios do governo dos Estados Unidos da América. A
forma como as entidades privadas assumiram funções é por vezes obscura, sem
documentos formais que indiquem claramente a fonte de sua competência. Mais ainda, a
representatividade de tais entidades também não é clara. Para Abbate, quanto mais a
Internet se transforma em um recurso internacional, mais a autoridade dos Estados Unidos
da América em assuntos administrativos serão colocados em desafio. Sua visão
comprovou-se correta, por exemplo, no caso da administração dos nomes e números
analisada no Capítulo 5.
43 Disponível em: <http://www.ietf.org/rfc/rfc3160.txt>. Acesso em 16.01.2006. 44 Disponível em <http://www.w3.org/Talks/1999/0105-Regulation/all.htm>. Acesso em 20.02.2006.
42
3.8. O vetor comercial
Os interesses corporativos nas primeiras fases da Internet eram
insignificantes, porque a ARPANET expressamente proibia o uso comercial da rede. Os
grandes interesses comerciais são notados na segunda metade da década de 1990, com as
disputas sobre os nomes de domínio (episódios conhecidos como DNS Wars), quando a
popularização da Internet criou uma grande base de usuários que seriam potenciais
consumidores.
Mas, mesmo antes de tratar das DNS Wars, vale mencionar um episódio de
interesse privado corporativo contra o interesse comum: o código IMP.
A BBN estava desenvolvendo as principais máquinas da rede, os Interface
Message Processors (IMPs) que cuidariam da transmissão dos pacotes. Os primeiros
quatro computadores a serem conectados com instalação de IMPs estavam em quatro
universidades, formando a inicial ARPANET.
O contrato da BBN com a ARPANET representava uma chance de começar
bem na área de networking. Para preservar sua vantagem estratégica pelo fato de ter
desenvolvido o IMP, a BBN tendeu a tratar os detalhes técnicos do IMP como segredos
industriais. Também havia a argumentação de que se a BBN liberasse demasiada
informação sobre o IMP, estudantes nos centros de computação poderiam tentar fazer
melhorias não autorizadas no software IMP, o que causaria problemas ao sistema.
Uma das mais calorosas discussões na comunidade ARPANET surgiu
quando a BBN se recusou a dividir o código fonte dos programas IMP com outros
contratados, que protestaram dizendo que precisavam saber como os IMPs eram
programados para que pudessem realizar seu trabalho efetivamente. As autoridades da
ARPA eventualmente apresentaram sua oposição e estabeleceram que a BBN não tinha
direitos sobre o código fonte e que o deveriam disponibilizar gratuitamente.
Independentemente dos termos contratados entre a ARPA e a BBN, em
última instância a ARPA utilizou seu poder de barganha para fazer com que o software
desenvolvido pela empresa BBN saísse da esfera proprietária. Diversos outros protocolos e
43
padrões de Internet que seguiram foram mantidos abertos, mas não há atualmente uma
estrutura jurídica que garanta que isso continue no futuro.
3.9. O projeto de rede fim-a-fim (end-to-end network design)
Na prancheta de projeto, eram inúmeras as possibilidades para o formato da
rede. Dessas possibilidades, somente se sabia é que a melhor escolha deveria ser aberta,
adaptável e acessível à inventividade ao máximo possível. Para isso, a melhor abordagem
era definir protocolos simples, limitados em escopo, o que daria flexibilidade para os
possíveis usos da rede.
Projetistas de redes geralmente fazem uma distinção entre os computadores
que estão localizados nas pontas ou “fins” (ends) da rede e os computadores localizados
dentro da rede. Os computadores no fim das redes são máquinas através das quais os
usuários interagem diretamente a fim de obter acesso, como um laptop, um desktop, um
aparelho de telefone celular. Os computadores “dentro” da rede são intermediários que
estabelecem os elos a outros computadores e portanto formam a própria rede. O
maquinário de um provedor de acesso à Internet por exemplo pode ser considerado um
computador de dentro da rede.
Os protocolos de Internet foram desenvolvidos para fornecer um canal
neutro e transparente para a mais ampla variedade possível de serviços de informação. Na
Internet, o trabalho da rede está limitado a transmitir unidades de dados da maneira mais
eficiente possível, enquanto a responsabilidade por aplicativos de software e outras funções
de nível mais alto, como autenticação e encriptação, é delegada aos dispositivos a ela
conectados. Em outras palavras, a maior parte da inteligência e responsabilidade está
localizada nos dispositivos localizados nos fins da rede, e não na rede em si. Tal definição
de “end-to-end” está baseada no parágrafo 2.3 do RFC 1958 “Architectural Principles of
the Internet”.
Ou seja, basicamente, o princípio fim-a-fim defende que a "inteligência" na
rede deve ser localizada no topo de um sistema de camadas, em seus fins, nos quais os
usuários colocam informação e aplicações. A rede meramente encaminha os pacotes de
44
dados e, devido à sua atual arquitetura, não discrimina ou diferencia o tráfego gerado pelas
aplicações.
Lessig (2001, p. 36) aponta três conseqüências do design fim-a-fim para a
inovação:
Primeiramente, pelo fato das aplicações serem executadas em computadores
no fim da rede, inovadores com novas aplicações precisam apenas de conectar seus
computadores à Internet para que elas funcionem. Nenhuma mudança nos computadores de
dentro da rede é necessária. Se um desenvolvedor quiser usar a Internet para fazer ligações,
é apenas necessário desenvolver a aplicação e fazer a divulgação para que usuários a
adotem e então a Internet transportará os dados produzidos pelo programa para realizar as
ligações “telefônicas”. Essa aplicação pode ser escrita e enviada a outra pessoa com quem
se deseja comunicar na outra ponta da rede. Ambos instalam o programa e começam a
conversar.
Em segundo lugar, pelo fato de o design não estar otimizado para qualquer
aplicação particular existente, a rede está aberta à inovação não imaginada originalmente.
Tudo o que o Internet Protocol (IP) faz é encontrar uma forma de empacotar e enviar os
dados. Sozinho, ele não empacota e transmite certos tipos de dados com mais eficiência
que outros, em respeito ao princípio da neutralidade. Isso cria problemas para algumas
aplicações, mas cria uma oportunidade para um amplo leque de outras aplicações também.
Ele significa que a rede é aberta para adotar aplicações não originalmente previstas pelos
projetistas.
Finalmente, como o design funciona como uma plataforma neutra (no
sentido que o dono da rede não tem como discriminar certos tipos de pacotes em
detrimento de outros), a rede não rejeita um novo projeto inovador. Se uma nova aplicação
ameaça uma aplicação dominante, não há nada que a rede possa fazer a respeito. A rede
permanece neutra independentemente da aplicação.
3.10. Os conceitos originais de rede
45
A Internet tem uma idéia técnica de pano de fundo chamada open
architecture networking que permite que as diversas redes que se conectarão sejam
desenvolvidas separadamente, cada uma com suas características e de acordo com os
requerimentos de seus usuários.
A idéia de open architecture networking foi introduzida por Robert Kahn
logo após sua chegada à DARPA em 1972. Como o primeiro protocolo de comunicações
da ARPANET, o NCP, apresentava limitações técnicas de controle de erros de transmissão
nos projetos de open architecture networking, Kahn decidiu trabalhar em uma nova versão
do protocolo que atenderia às necessidades encontradas. Tais protocolos se chamariam
Transmission Control Protocol/Internet Protocol (TCP/IP).
Nesse processo, quatro linhas mestras orientaram o trabalho de Kahn:
i) Cada rede separadamente considerada deveria ser independente e
nenhuma mudança interna deveria ser necessária a qualquer uma dessas redes para que ela
pudesse se conectar à Internet;
ii) Comunicações seriam realizadas em uma base de melhor esforço. Se um
pacote não chegasse ao seu destino final, em um curto período deveria ser retransmitido da
fonte;
iii) Caixas pretas seriam usadas para conectar as redes; essas mais tarde
seriam chamadas de gateways e roteadores. Não haveria informação a ser retida nos
gateways a respeito dos fluxos individuais de pacotes passando por eles, e portanto seriam
mantidos simples e evitando adaptação complicada e recuperação de vários modos de erro;
e
iv) Não haveria controle global no nível de operações.
Apesar de parecerem meramente técnicas, essas características contribuem
pela distribuição do controle na Internet e a recente busca por maior poder por parte de
determinados stakeholders tem levado à implementação de modificações a essa
arquitetura. Principalmente nas características (iii) e (iv) o que se busca é usar os
equipamentos da rede para reconhecer cada pacote de dados e então tratá-los de forma
distinta, contrariamente ao princípio da neutralidade.
46
Como a Internet é dinâmica, a substituição de seus padrões, protocolos e
arquitetura é possível. Uma prova desse dinamismo é o caso de transição do NCP para o
TCP/IP.
3.11. A chegada da Defense Communications Agency e a transição para o TCP/IP
A substituição de protocolos é uma possibilidade técnica. Historicamente, já
aconteceu quando da migração do NCP para o TCP/IP, acelerada pela chegada da Defense
Communications Agency – DCA como nova operadora da ARPANET, pois a ARPA já
começava a ser vista como uma agência de pesquisa pequena demais para o sistema que
expandia cada vez mais. Portanto, nada impede que um novo protocolo possa surgir que
melhor atenda aos interesses de agentes mais articulados e poderosos como a indústria de
telecomunicações e entretenimento.
Depois de assumir o controle da ARPANET em julho de 1975, o Defense
Communications Agency começou a reorientar a rede para fora de suas origens de pesquisa
e mais em direção a operações de rotina militar.
Abbate (1999, p. 37) ainda reporta que as preocupações do DCA com
segurança da rede vieram como resposta a tendências de computação dos anos 70, em que
os computadores pessoais começavam a aparecer e ganhar adeptos. Os computadores que
até então estavam, pelo seu alto custo, restritos a líderes da academia, negócios e governo
haviam se tornado mais baratos e podiam ser adquiridos por adolescentes como hobby. A
difusão de computadores para um segmento muito mais amplo da população aumentava o
risco de hackers45 entrarem no sistema militar da ARPANET.
Em março de 1981, foi anunciado que todos os computadores ARPANET
deveriam implementar o TCP/IP em lugar do protocolo NCP até janeiro de 1983. A
transição seria demorada, custosa e trabalhosa. Não apenas os gerentes dos computadores
deveriam se assegurar que as aplicações de rede estariam prontas para produzir pacotes 45 A popularização pode mudar o sentido original de certos termos. Alguns programadores criticam o uso
popular de “hacker” como sinônimo de criminoso tecnológico. Para eles, o termo correto é cracker, sendo que o sentido original de hacker vem de “hack”, cortar caminho dentro de um sistema teoricamente hermético sem intenção maligna, mas sim testando as defesas de modo crítico.
47
com os novos cabeçalhos, mas também escrever software TCP para cada tipo de
computador.
Como o NCP e TCP/IP eram incompatíveis, alguns computadores
executavam ambos os protocolos e atuaram como tradutores entre TCP e NCP durante o
período de transição. Até janeiro de 1983, ambos os protocolos seriam aceitos pelos IMPs,
mas após essa data a BBN configuraria os IMPs para rejeitar pacotes usando o formato
NCP. Aqueles que não haviam criado os software necessários para seus computadores
foram surpreendidos quando a BBN obedeceu a política da ARPA-DCA e foram cortados
da rede. O corte foi uma manobra para forçar todos a completar a transição.
Muitos gerentes de computadores não fizeram a mudança a tempo. Para
manter a rede funcionando, computadores que não estavam corretamente compatíveis com
o TCP/IP receberam autorização especial para operar o NCP enquanto trabalhavam com o
problema. Qualquer ponto de computação que não tivesse se convertido para o TCP/IP e
quisesse se manter conectado era obrigado a enviar uma justificativa, pedindo uma exceção
e apresentando uma data para conversão. Em junho, todos os computadores estavam
usando o TCP/IP e um passo fundamental na evolução da Internet havia sido dado.
Um passo adicional para definir o palco de desenvolvimento de uma
Internet de maior escala com os usuários civis foi segregar os usuários militares da
ARPANET e seus pesquisadores acadêmicos, que estavam coexistindo de modo inquieto
desde que o DCA havia assumido a ARPANET. O DCA e seus usuários militares
enfatizavam uma maior segurança de rede e tinham receios de que os locais acadêmicos
não poderiam ou não teriam intenção em efetivar métodos de controle de acesso restrito.
Abbate (1999, p.137) conta que um gerente da BBN entendia que os acadêmicos gostavam
de acesso aberto pela promoção de partilha de idéias, mas que isso poderia também abrir
margens para ataques. E cada vez mais a ARPANET era entendida como sujeita à intrusão
de usuários não autorizados pois os novos computadores de preço menor e equipados com
modems haviam facilitado o acesso à rede por amadores.
Para proteger os computadores militares dessa ameaça, a ARPANET foi
dividida em duas redes distintas: uma rede de defesa (ainda chamada ARPANET) e uma
rede de operações militares, a MILNET. A ARPANET continuaria a ser desenvolvida com
novas tecnologias, enquanto a MILNET usaria equipamentos com mecanismos de
criptografia e outras medidas de segurança para apoiar funções militares.
48
O dinamismo da Internet é claro no período entre 1973 a 1983. O protocolo
NCP foi substituído pelo TCP/IP, os usuários militares foram divididos em uma rede
segmentada, e a ARPANET se tornou parte de um sistema maior, a Internet, que então
agregava diversas redes e em breve permitiria o uso comercial de seus recursos por sua
política de uso. Nessa evolução, os interesses cresciam, assim como aumentava o número
de interessados. Disputas sobre os padrões e suas conseqüências políticas, econômicas e
culturais, já começavam a ser sentidas. Assim, com o aumento do valor da rede, as futuras
mudanças da Internet seriam mais e mais disputadas.
3.12. Conclusão deste capítulo
Apresentou-se aqui, o segundo pressuposto essencial da dissertação: a
Internet é dinâmica e evolui.
É possível influenciar em seu futuro através da regulação pela arquitetura.
Ela pode ser aberta e estimular criatividade ou ser fechada e impor um modelo de
segurança, divisão geográfica ou uma comunicação mais unilateral e menos interativa.
Para mostrar o aspecto dinâmico, mostraram-se os interesses e valores
predominantes na Internet, em seus primórdios. A apresentação desse cenário original é
necessária para que seja possível realizar, ao final da dissertação, a comparação entre tal
contexto e as tendências de transformação que impulsionam a Internet atualmente.
A Internet começou com um estilo militar que garantia robustez e
flexibilidade. Os acadêmicos colocaram seus valores, como a abertura permitindo que
qualquer um fosse um produtor, o que fez surgir o e-mail e diversas outras inovadoras
aplicações. Os cientistas decidiam por meritocracia, sem organização jurídica.
Merece destaque a mudança cultural na história da Internet, apontada por
Blumenthal e Clark (2001). Os autores identificaram que a Internet originalmente era uma
pequena comunidade de cientistas com grande afinidade e confiança mútua, e que estavam
sob a administração de instituições acadêmicas e governamentais que não permitiam o uso
comercial da rede. Com a entrada de novos stakeholders as expectativas mudaram, o que
49
gerou um movimento de mudança na própria arquitetura da rede para atender aos novos
interesses.
Os padrões, protocolos e princípios aplicáveis a sistemas informáticos são
objeto de alta disputa de controle entre vários atores. Um princípio da Internet, a
característica fim-a-fim, estimulou muita inovação através da rede. Mas tal princípio não é
necessariamente o mais interessante para a indústria que deseja retomar controle.
Entretanto, a rede inteligente pode apresentar benefícios de segurança e estabilidade,
conforme seus defensores.
As características da Internet podem mudar conforme mudam os protocolos.
Já houve mudança de protocolos no passado como o NCP para TCP/IP. Essa mudança
implicou poucos efeitos regulatórios, e foi uma transição sem grandes impactos,
comparada com as mudanças que estão hoje em andamento. No caso de uma mudança do
princípio do fim-a-fim para uma rede com inteligência interna são maiores os efeitos
regulatórios.
É necessário decidir como decisões de mudança de tecnologia gerando
regulação pela arquitetura serão tomadas dentro de níveis adequados de governança.
50
4. COMPETIÇÃO: MODELO TELECOM V. MODELO INTERNET
A maturidade da Internet e das tomadas de decisão
Vista a importância do código na regulação pela arquitetura, a definição de
padrões de código é uma atividade em que as batalhas pelo controle acontecem.
Historicamente, as empresas de telecomunicações, organizadas dentro da
moldura da UIT, conseguiram introduzir o padrão X.25 e reduzir a importância dos
padrões definidos por fabricantes como a IBM. O padrão X.25 não era associado a
qualquer fabricante em particular e dava às empresas de telecomunicação uma maior
independência e acesso a um maior escopo de hardware e software de telecomunicações.
Enquanto o X.25 era flexível em termos de infra-estrutura de hardware e software, ele
criava um monopólio de telecomunicações. Dentro do X.25, as telecomunicações de dados
eram ordenadas principalmente por redes públicas que eram gerenciadas por empresas de
telecomunicações. Como guia, os elaboradores dos padrões da União Internacional de
Telecomunicações – UIT usaram o sistema de telefonia cujos padrões foram regulados pela
UIT por décadas. O X.25 assim propunha que as redes de computadores fossem
organizadas nacionalmente e conectadas umas às outras nas bordas internacionais.
Esse padrão centralizado era diferente do que a comunidade da Internet
estava propondo através do TCP/IP. O TCP/IP acabou se mostrando muito mais flexível
para a integração de redes heterogêneas. Ele permitia que os usuários desenvolvessem uma
ampla variedade de redes privadas ao mesmo tempo em que elas poderiam comunicar
umas com as outras. O sucesso do TCP/IP era um sinal de erosão dos monopólios
nacionais de telecomunicação e a emergência de um sistema global de telecomunicações.
Ao lado da disputa TCP/IP e X.25 houve uma tentativa internacional de
introduzir o modelo Open System Interconnection, que, apesar de não ter sido amplamente
adotado como padrão, introduziu uma abordagem de múltiplas camadas para rede de
computadores e trouxe um impacto positivo no desenvolvimento de uma abordagem
moderna a esse campo.
51
4.1. Competição na definição de padrões (standards)
Os protocolos TCP/IP foram desenvolvidos na década de 70 e se tornaram
um padrão amplamente reconhecido na década de 80. Mas, no mesmo período, a crescente
popularidade de redes de computadores levou órgãos internacionais de padronização a
propor outros padrões formais para protocolos de rede.
Os padrões (standards) compõem tema político e comercial por representar
uma forma de controle sobre a tecnologia e conseqüentemente fazem parte do processo de
regulação pela arquitetura.
Padrões comuns garantem que componentes de diferentes fabricantes
trabalhem em conjunto. Um mercado de produtos compatíveis permite que consumidores
escolham produtos a partir de preço ou performance, ao invés de apenas compatibilidade,
aumentando seu poder de barganha.
Grandes corporações como a International Business Machines – IBM já
tentaram proteger seus mercados ao manter secretos seus padrões de produtos internos de
modo a dificultar que outros concorrentes oferecessem produtos compatíveis. Os padrões
comuns tendem a remover barreiras de incompatibilidade, facilitando a entrada de
pequenos competidores. Como a maior parte dos governos nacionais ativamente promove a
competitividade de suas indústrias domésticas, os padrões técnicos que afetam mercados
também podem virar assunto político, como no caso da TV digital no Brasil46.
Padrões técnicos vêm de diversas fontes. Algumas vezes a primeira versão
de uma tecnologia a ter sucesso no mercado é que acaba definindo o padrão, como
aconteceu com o posicionamento das teclas na máquina de escrever QWERTY47. Tais
padrões são padrões “de facto”: não têm uma força legal, mas acabam sendo usados ampla
e espontaneamente. Um dos mais fortes padrões “de facto” para as redes de computação
acabou sendo o protocolo TCP/IP da ARPA.
46 Cf. Informativo Intervozes – TV Digital. Saiba por que você precisa participar desse debate. Intervozes –
Coletivo Brasil de Comunicação Social. Disponível em: <http://www.intervozes.org.br/arquivos/TVDigital.pdf>. Acesso em 16.01.2006.
47 O QWERTY é o layout de teclados mais utilizado hodiernamente e seu nome é derivado das primeiras seis letras na primeira linha de teclas.
52
Abbate aponta uma importante fonte de padrões “de facto”: os fabricantes
de computador. Nos anos 60 e 70 os fabricantes ofereciam várias soluções parciais para
conectar suas máquinas, mas elas nunca eram sistemáticas; somente a IBM tinha centenas
de produtos de comunicações com dezenas de diferentes protocolos. Na metade dos anos
70 vários dos grandes fabricantes de computadores começavam a oferecer sistemas
completos de rede. Porém, diferentemente da ARPANET, esses sistemas eram
proprietários, como o Systems Network Architecture – SNA da IBM, o Xerox Network
Services da Xerox Corporation e o Digital Network Architecture da Digital Equipment
Corporation, projetados para funcionar apenas na própria linha de computadores do
fabricante. As especificações técnicas eram freqüentemente mantidas em segredo, e uma
taxa de licença era cobrada pelo uso dos protocolos.
Padrões proprietários tendem a beneficiar grandes fabricantes e pouco
contribuem para aumentar a compatibilidade entre diferentes produtos. Para lidar com
essas fraquezas, usuários ou fabricantes de uma nova tecnologia freqüentemente tentam
estabelecer padrões formais públicos. Padrões formais públicos são definidos por
organizações autorizadas em nível nacional ou internacional. Diferentemente da maioria
dos padrões que emergem do setor privado, os padrões formais públicos são criados com a
participação de usuários assim como de produtores, de forma que uma companhia
individualmente considerada não tem suficiente controle técnico ou econômico. Órgãos
públicos de padronização freqüentemente aguardam até que uma tecnologia fique em uso
por algum tempo e os prós e contras de diferentes projetos fiquem aparentes antes de
escolher um padrão. Porém, em outros casos, especialmente quando a existência de
múltiplos e conflitantes padrões criaria incompatibilidade ou grandes custos de conversão,
as organizações tentam aprovar padrões antes de uma tecnologia ficar firmemente
estabelecida.
No tocante a redes de computadores, a situação de padrões públicos nos
anos 70 era relativamente complexa. Havia uma confusa hierarquia de grupos de padrões
nacionais e internacionais em constante competição por poder sobre padrões de
comunicação de dados.
David Bollier (2003, p. 105) identifica uma importância de padrões abertos
para a Internet, ao argumentar que os padrões tecnológicos são tipicamente projetados por
empresas para reforçar suas posições estratégicas. A IBM dominava a computação nas
53
décadas de 60 e 70 utilizando protocolos proprietários, assim como a Xerox, Digital
Equipment, Burroughs, Honeywell e outras empresas.
Bollier (2003) entende os padrões técnicos como uma forma de política e
poder e por isso voltados aos interesses de mercado das empresas e não necessariamente ao
interesse público.
Além disso, ele aponta como uma contribuição fundamental trazida pela
Internet, foi uma base comum de protocolos técnicos não-proprietários, o que impedia uma
empresa individualmente considerada de se apropriar da Internet ou de algum de seus
componentes básicos. Os padrões abertos não fizeram com que o poder estratégico ficasse
na mão nem dos grandes fabricantes de computação nem das empresas de telefonia, mas
sim em favor dos usuários.
O risco que se apresenta diante dessa riqueza apresentada pelos padrões
abertos é que não há nada intrinsecamente relacionado às redes de computadores que
exijam protocolos comuns. A arquitetura da Internet, conforme retratado neste Capítulo, é
resultado de escolhas da ARPANET que hoje estão atreladas ao projeto de hardware e
software. A Internet poderia, ao contrário, ser projetada para oferecer uma estrutura de
controle individual, facilitação de interceptação de e-mail ou exigir necessária certificação
de identidade para prosseguir com a conexão. Considerado o aspecto dinâmico da Internet,
é necessária cautela antes de aprovar mudanças que impliquem em padrões menos
adequados ao interesse público global.
4.2. Definição internacional de padrões formais públicos
Internacionalmente, duas grandes organizações dividiam autoridade sobre
padrões de networking.
Uma era a Consultative Committee on International Telegraphy and
Telephony (CCITT) da União Internacional de Telecomunicações – UIT48. O CCITT tinha
uma reunião de plenário a cada quatro anos na qual os membros votavam sobre padrões
48Hoje substituída pela ITU-T. Disponível em: <http://www.itu.int/ITU-T/>. Acesso em 16.01.2006.
54
propostos e identifica temas para maior estudo. Os padrões da CCITT são oficialmente
denominados Recomendações, e em teoria não são vinculantes. Na prática, porém, são
adotados automaticamente como padrões nacionais por muitos países membros da UIT. A
maioria dos países está representada no CCITT através de suas prestadoras nacionais de
telefonia, que são estatais.
Como a CCITT sempre foi dominada pela indústria de telecomunicações
(ABBATE, 1999, p. 150), sua abordagem para networking de dados era baseada na
experiência dos membros em telefonia ao invés de computação, o que colocava em
algumas vezes a CCITT em conflito com a comunidade computacional.
A outra grande autoridade sobre padrões de networking era a International
Standards Organization – ISO, órgão fundado em 1946 para coordenar padrões
internacionais para uma variedade de indústrias. Os padrões da ISO são escritos pelos seus
Grupos de Trabalho. Apesar de abertas a representantes interessados dos governos,
academia e usuários, os Grupos de Trabalho tendem a ser dominados por fabricantes de
computação, que têm tanto um interesse forte na definição dos padrões para suas próprias
indústrias e suficientes recursos financeiros para enviar empregados especialistas para
participar das atividades de padronização. A ISO circula suas Minutas de Padrão (Draft
Standards) entre todos os países membros para comentários e revisão e, quando existe
aprovação geral, a minuta é oficialmente designada um padrão internacional. Assim como
os padrões CCITT, os padrões ISO são automaticamente adotados em muitos países.
A complexidade do sistema de padrões públicos para redes de computadores
reproduzia a complexa teia de grupos de interesse sobre a tecnologia emergente. Grupos
competidores como europeus e norte-americanos, por exemplo, ou então fabricantes de
computação e empresas de telefonia se dirigiam às suas organizações favoritas de
padronização para a criação de especificações através das quais esperavam controlar o
desenvolvimento futuro de networking. O resultado foi uma Babel de pretensos “padrões”
incompatíveis e concorrentes.
Os esforços empreendidos pela ISO e o CCITT para criar padrões
internacionais de rede trouxeram controvérsias. Os debates sobre padrões de rede
freqüentemente foram conduzidos de modo a parecer puramente técnicos, mas o exame
cuidadoso revela agendas econômicas e políticas por trás desses argumentos, como
apontado por Bollier (2003). A discussão sobre os padrões teve motivos suficientes para
ser tão calorosa, conforme relata Abbate (1999, p. 152), porque a Internet e seus criadores
55
não mais operavam no isolado mundo da pesquisa de defesa interna; eles tinham entrado
na arena da política internacional e comercial, e os apoiadores da tecnologia Internet teriam
que se adaptar a essa realidade.
4.3. Recomendação X.25 e a competição entre a Trans-Canada Telephone System e a
International Business Machines - IBM
A primeira grande competição sobre padrões de redes de dados era sobre o
mercado para produtos de rede, que poderia ser controlado por fabricantes de
computadores ou por empresas de telefonia (ABBATE, 1999, p. 152). A comunidade da
Internet sentia que as empresas de telefonia estavam tentando usar seus novos padrões para
impor sua própria visão de um sistema mundial de rede. Essa visão batia de frente com o
modelo Internet de rede em vários aspectos importantes como a centralização e localização
da inteligência. Para as telefônicas, a rede deveria ser centralizada, com a inteligência
internalizada na rede. Para os cientistas de computação, a rede deveria ser descentralizada
e a inteligência localizada nos fins da rede.
As empresas de telefonia viam a comunicação de dados como simplesmente
uma extensão da telefonia. Conforme o aumento de computadores acontecia entre os anos
60 e 70, as empresas de telefonia dos países industrializados viam que um mercado de
transmissão de dados estava se configurando. Apesar de no início servirem apenas para
grandes cidades, tinham o potencial de crescer tanto quanto as redes de telefonia, e as
empresas de telefonia já previam que poderiam até interconectar seus sistemas para lidar
com tráfego de dados internacional. Os administradores das telefônicas perceberam que se
não entrassem em acordo comum sobre as técnicas de rede haveria um risco sério de criar
sistemas incompatíveis que não poderiam se interconectar facilmente.
Em 1973 o CCITT começou a estudar a questão sobre os padrões para redes
públicas de dados, esforço que se acelerou quando ficou claro que as redes seriam
estabelecidas com ou sem padrões CCITT. As empresas de telefonia preferiram criar seus
próprios padrões pois não queriam basear suas redes nos produtos proprietários das
56
fabricantes de computadores, o que poderia as aprisionar a comprar equipamento de rede
de um único fornecedor. Elas tinham um especial medo de que a IBM usasse sua fatia de
mercado de computadores global para fazer seu modelo chamado Systems Network
Architecture – SNA um padrão “de facto”.
Tensões entre as telefônicas e a IBM chamaram atenção em outubro de
1974, quando a empresa pública de telecomunicações canadense se levantou publicamente
contra o que via como uma prática de monopólio da IBM. A Trans-Canada Telephone
System – TCTS tinha começado o trabalho em uma rede de comutação de pacotes chamada
Datapac, para o que estava começando a desenvolver seus protocolos. Logo após esse
esforço começar, os protocolos SNA da IBM ficaram disponíveis e, como a rede Datapac
usava principalmente computadores da IBM, a adoção de SNA era um caminho óbvio para
a TCTS. Mas, ao invés de adotar os padrões proprietários da IBM, o governo canadense
divulgou uma declaração de que estava publicamente buscando protocolos específicos de
rede que fossem compatíveis com uma variedade de equipamentos concorrentes.
Isso foi interpretado pelo mundo de comunicação de dados como um ataque
direto à política da IBM de manter os protocolos secretos e incompatíveis com produtos de
rivais. Enquanto a TCTS tentou convencer a IBM a modificar seus protocolos para atender
aos requisitos do Canadá, a IBM exigia que a empresa de telefonia aceitasse seu protocolo
SNA, dizendo que não fazia sentido modificar seus produtos.
Em resposta ao impasse entre o governo canadense e a IBM e o rápido
desenrolar de desenvolvimento de redes públicas, um grupo ad hoc dentro da CCITT
decidiu criar protocolos próprios para redes públicas de dados. Esse grupo foi conduzido
por representantes das empresas de telecomunicação do Canadá, França e Inglaterra, países
que estavam desenvolvendo suas próprias redes de dados e também por representantes da
Telnet, uma rede de dados comercial norte-americana que era uma cisão da ARPANET. O
grupo começou a trabalhar em 1975 em um conjunto de três protocolos que eles chamaram
de Recommendation X.2549, aprovado em 1976.
As empresas públicas de telecomunicações rapidamente incorporaram o
X.25 em suas nascentes redes de dados. Com apoio internacional para o novo padrão, as
telefônicas puderam pressionar os fornecedores de computadores a fornecer hardware e
software funcional com o X.25 para a construção dessas novas redes públicas de dados.
49 X significava o código da CCITT para standards de comunicação de dados.
57
Alguns fabricantes deram as boas vindas ao X.25, que criava um mercado
grande e homogêneo de produtos de comunicações de dados. Mesmo alguns fabricantes
que tinham seus produtos de rede proprietários acabaram apoiando o X.25 paralelamente
aos seus protocolos próprios.
Vencida a batalha contra os fabricantes, as empresas de telefonia poderiam
ter mantido o uso do X.25 sem maiores preocupações se não fosse por um outro elemento:
a Internet, com seus próprios protocolos duramente construídos por colaboração e com
uma grande comunidade de comprometidos apoiadores. Muitos desses apoiadores sentiam
que o X.25 tinha sido estabelecido em oposição direta aos protocolos TCP/IP da Internet.
Alguns representantes norte-americanos do CCITT tinham inclusive sugerido o uso do
TCP/IP nas discussões que culminaram no X.25, mas a idéia tinha sido amplamente
rejeitada. O TCP/IP oferecia protocolos testados, livremente disponíveis, não proprietários,
mas as empresas de telefonia queriam protocolos projetados para suas próprias
necessidades e interesses que eram diferentes dos valores militares e acadêmicos da
Internet.
Da aprovação do X.25 em 1976 até o final dos anos 80, os profissionais de
rede debateram intensamente sobre os relativos méritos dos padrões X.25 e TCP/IP. Cada
lado queria que seus protocolos fossem apoiados por fabricantes, ensinados em faculdades
e escolhidos para as redes públicas e privadas. Dentre as características que distinguiam os
protocolos, estava o tema da distribuição de controle.
4.4. Disputa entre o X.25 e o Transmission Control Protocol/ Internet Protocol -
TCP/IP
Os dados viajavam por uma rede de comutação de pacotes como pacotes
isolados que poderiam ser perdidos, danificados ou desordenados antes de chegar a seu
destino. De alguma forma a rede deveria tratar esses pacotes individuais de modo contínuo,
ordeiro, fluindo sem erros. Os projetistas de rede debatiam se esse fluxo deveria ser
fornecido pela sub-rede de comunicações ou por computadores centrais.
58
Essa era uma decisão básica sobre a qualidade do serviço. Se uma única
entidade detém tanto infra-estrutura de rede a sub-rede e os computadores, essa decisão
pode ser tomada em nível puramente técnico. Mas se diferentes grupos controlam
diferentes partes da rede, então se torna um tema estratégico sobre qual grupo (operadores
da rede ou donos de computadores) é que deterá o poder de determinar a performance da
rede. Tal era o caso da disputa sobre o X.25. Para as empresas de telecomunicações
(Bellheads), parecia evidente que o melhor serviço aos usuários poderia resultar de um
sistema em que poucos e grandes fornecedores de telecomunicações controlassem as
operações de rede. Para os donos de computadores (Netheads), parecia óbvio que os locais
de computação deveriam ter o máximo de controle possível sobre a performance da rede de
modo a modelar o serviço para atender às suas necessidades.
Essas duas abordagens refletem diferentes presunções sobre a capacidade da
rede e sobre o controle do operador do sistema sobre essas capacidades.
Os protocolos da CCITT foram propositadamente projetados para colocar
controle da rede nas mãos das telefônicas ao localizar a maior parte da funcionalidade
dentro da rede ao invés de fazê-lo nos computadores dos usuários, como acontecia na
arquitetura TCP/IP.
Em suma, a escolha entre X.25 e TCP/IP não era um mero debate técnico,
também definia a distribuição de controle e responsabilidade entre prestadores de redes
públicas e proprietários de computadores. Para as empresas de telefonia, o X.25 significava
que elas poderiam garantir a seus consumidores um melhor serviço e aumentar seu próprio
lucro. Alguns dos consumidores estavam felizes em receber um serviço de comunicação
confiável de dados com pouco esforço solicitado de sua parte. Porém, para donos de
computadores com maior expertise, o X.25 aumentava o custo de serviço de rede e
interferia em sua capacidade de controlar suas próprias atividades de comunicação de
dados.
Abbate (1999, p. 162) ainda aponta uma segunda diferença entre as
abordagens X.25 e TCP/IP. A ARPA se esforçava ao máximo para acomodar diferentes
tipos de redes, enquanto as empresas de telefonia esperavam que todas as redes do sistema
se adequassem para o uso do X.25. O modelo das empresas de telecomunicações era o
sistema de telefonia, e eles assumiam que seu monopólio de telecomunicações facilitaria a
criação de uma única e homogênea rede pública de dados em cada país, que se
interconectaria logo após. O projeto do CCITT mostra que as empresas de telefonia
59
estavam relutantes em conectar seus sistemas com redes privadas. Ao preparar o padrão
X.25, as decisões técnicas e políticas das telefônicas foram influenciadas pela expectativa
que as redes privadas não seriam amplamente usadas.
O X.25 foi explicitamente projetado para alterar o equilíbrio de poder entre
as empresas nacionais de telefonia e as fabricantes de computadores. E nisso tiveram
sucesso, pois as redes públicas de dados não ficaram dependentes de sistemas de rede
proprietária da IBM ou de qualquer outra companhia. Ao invés disso, ao se unir, as
empresas de telefonia forçaram as fabricantes a fornecer produtos de rede baseados no
padrão CCITT de protocolo X.25.
O conflito entre as visões CCITT e Internet não se resolveu imediatamente.
X.25 foi adotado na maioria das redes públicas e em algumas comerciais enquanto a
Internet da ARPA e algumas redes privadas continuaram a usar TCP/IP ou protocolos
comerciais. Mas, enquanto as questões sobre como interconectar esses diversos sistemas
não encontram solução, o debate foi deixado em segundo plano conforme um novo modelo
de desenvolvimento de padrões de rede havia entrado em cena: o Open Systems
Interconnection – OSI.
4.5. Open Systems Interconnection - OSI
O segundo grande esforço de definição de padrões de rede também mirava
os fabricantes de computadores. Como exposto, a incompatibilidade entre sistemas de
computação significava que os fabricantes de computação tinham um monopólio sobre
produtos de rede de seus sistemas, deixando os consumidores com poucas opções de
produtos de rede e com uma contínua incapacidade de interligar diferentes tipos de
computadores em rede. Assim, alguns anos após o início dos trabalhos para o
desenvolvimento do X.25, um grupo de especialistas em computação na ISO lançou uma
campanha para criar um conjunto de padrões de rede que poderiam ser utilizados em
qualquer sistema de computação.
Tal iniciativa de definição de padrões de rede era uma exceção à prática
normal da ISO ao tentar padronizar uma tecnologia ainda nova e que não tinha grande
60
chance de se estabilizar. Diferentemente da CCITT, que desenvolvia padrões para um
grupo relativamente pequeno e homogêneo de empresas de telefonia, a ISO estava
tentando servir toda a comunidade mundial de usuários de tecnologia. A ISO normalmente
adota uma postura conservadora, aguardando até um padrão “de facto” emergir da prática
em um determinado campo para usá-lo como base para um padrão formal público.
Mas no caso de redes, alguns membros da ISO acharam que padrões formais
deveriam ser delineados de modo pró-ativo. A controvérsia entre a empresa pública de
telecomunicações canadense e a IBM, que acionou o desenvolvimento do X.25, mostrava
que apesar dos usuários desejarem produtos de rede compatíveis, as fabricantes de
computadores não estavam comprometidas em oferecê-los. Se os usuários de rede não se
esforçassem em desenvolver padrões mundiais, estariam arriscados a se deparar diante de
uma infinidade de “padrões” proprietários incompatíveis e concorrentes que apenas
serviriam para uma determinada linha de produtos.
Em 1978, membros da ISO preocupados com o assunto formaram um
comitê para lidar com o problema de padrões de rede e deram ao projeto o nome de Open
Systems Interconnection. Para usuários de computação, sistemas abertos (open systems)
representavam um ideal oposto aos sistemas proprietários dos fabricantes. Como explicado
por Bollier (2003, p.105), para maximizar seu controle sobre o mercado, os fabricantes de
computadores tendiam a manter seus sistemas fechados o máximo possível. Os
funcionamentos técnicos de seus sistemas eram mantidos escondidos de competidores,
patentes e direitos autorais eram usados para prevenir duplicação de tecnologia e dificultar
a interface entre equipamentos. Para piorar a situação, “padrões” eram arbitrariamente
modificados. Em um sistema aberto, em contraste, as especificações técnicas do sistema
são públicas. A tecnologia é não-proprietária, de modo que qualquer um pode duplicá-la. O
sistema é desenvolvido para funcionar com componentes genéricos, ao invés de apenas
com os produtos de um fabricante específico, e mudanças aos padrões devem ser feitas por
uma organização pública de padronização e não por uma empresa privada.
Ao tornar os produtos de computação mais compatíveis, a abertura transfere
o poder de controle sobre a tecnologia da mão dos produtores para os consumidores. O
desafio da ISO aos fabricantes de computação foi ainda mais além do que a CCITT tinha
alcançado. O X.25 pretendia forçar os fabricantes a fornecer protocolos não proprietários,
mas o X.25 tinha sido apenas concebido para as redes nacionais de dados. O Open Systems
Interconnection, por outro lado, seria adotado como um padrão nacional de tecnologia em
61
vários países e portanto não apenas governos como também compradores privados seriam
beneficiados com produtos OSI.
Como o campo de rede de computação ainda estava evoluindo, o comitê da
OSI temia elaborar padrões de rede específicos que pudessem prematuramente congelar a
inovação. Para evitar esse risco, propuseram uma moldura geral para o desenvolvimento de
futuros padrões. Seu plano era iniciar com um modelo de como um conjunto de protocolos
deveria se encaixar para formar um sistema de rede completo. O modelo OSI definiria que
serviços os protocolos deveriam fornecer e como deveriam interagir. Uma vez definida
essa moldura geral, as organizações interessadas poderiam propor padrões específicos que
se adequariam ao modelo e os membros ISO decidiriam se os adotariam ou não como
padrões Open Systems Interconnection oficiais. O modelo OSI era um “meta-padrão”: um
padrão para criar padrões.
4.5.1. Conceito de Camadas
Antes de prosseguir com a descrição do modelo OSI, é adequado fazer um
esclarecimento a respeito do conceito de camadas. A principal razão para a adoção de
camadas é que o modelo de camadas divide uma tarefa como comunicação de dados em
diversas sub-tarefas, atividades ou componentes e cada uma delas é definida e
desenvolvida independentemente.
Existem diversas vantagens no uso de camadas, como:
1 - facilidade de mudança: quando mudanças são feitas em uma camada, o
impacto nas outras camadas é minimizado. Se o modelo consistisse de uma única camada
que envolvesse todas as atividades, qualquer mudança afetaria o modelo por completo;
2 - modularidade: um modelo de camadas define cada uma das camadas
separadamente. Enquanto as interconexões entre as camadas permanecerem constantes, os
projetistas de protocolos podem se especializar em uma camada sem se preocupar com os
impactos em outras camadas;
62
3 - solução de problemas: os protocolos, ações e dados contidos em cada
uma das camadas são relacionados tão somente àquela camada. Isso permite que a
resolução de problemas possa ser focada na camada que é tida como a suspeita da origem
do problema;
4 - padrões: estabelece uma linha mestra prescrita para interoperabilidade
entre vários produtores que desenvolvem produtos que realizam diferentes atividades de
comunicações de dados.
O sistema de camadas, ou layering, foi empregado para lidar com as
complexas tarefas de rede de maneira modular. O sistema de camadas é organizado como
um conjunto de funções que interage de acordo com regras específicas. As funções são
chamadas de “camadas” pois são dispostas em uma hierarquia conceitual que parte de
funções estruturais e físicas (como o transporte de sinais eletromagnéticos) até chegar em
funções abstratas (como a interpretação de comandos digitados no teclado pelo usuário).
Cada função superior depende do trabalho desempenhado pela camada inferior. O sistema
de camadas tem implicações técnicas e sociais, permitindo que a complexidade técnica do
sistema possa ser enfrentada com menor dificuldade e que o sistema seja desenvolvido de
modo descentralizado.
É difícil e não desejável a elaboração de um protocolo único para lidar com
todas as operações de comunicação em uma rede. Assim, os engenheiros adotam múltiplos
protocolos que dividem a comunicação em sub-problemas separados, organizando o
software em módulos para lidar com os desafios. Funções são alocadas em diferentes
camadas de protocolos, com interfaces padronizadas entre camadas. A flexibilidade
oferecida na abordagem de camadas permite que produtos e serviços evoluam acomodando
mudanças feitas na camada apropriada, ao invés de ter que reelaborar todo o conjunto de
protocolos. Em outras palavras, as camadas permitem que mudanças na implementação de
uma camada determinada não afetem o que já existe em outras camadas, desde que as
interfaces entre as camadas permaneçam constantes. As camadas criam um tipo de
modularidade, uma independência de uma camada em relação à outra. Aplicações ou
protocolos em camadas superiores podem ser desenvolvidos ou modificados com pouco ou
nenhum impacto nas camadas inferiores.
Uma forma simplificada de explicação do conceito de camadas é
apresentada pelo professor da Yale Law School, Yochai Benkler (2000) que sugere que um
sistema de comunicações deve ser entendido dividindo-o em três distintas camadas.
63
Embaixo de tudo, está a camada física, através da qual a comunicação é transportada. É o
computador, os fios que conectam os computadores na Internet. No meio está a camada
lógica ou camada de código – o código que faz com que o hardware funcione. Aqui podem
ser incluídos os protocolos que definem a Internet e o software em cima do qual esses
protocolos funcionam. No topo de tudo está a camada de conteúdo, aquilo que é dito ou
transmitido através dos fios. Aqui são incluídas as imagens digitalizadas, textos, filmes etc.
Essas três camadas funcionam juntas para definir um determinado sistema de
comunicações.
Para fornecer uma moldura de definição de padrões, o modelo OSI
organizou as funções de rede em sete camadas de protocolos. A camada mais baixa lida
com tarefas mais concretas de transmissão de sinais elétricos sobre um meio físico
enquanto as camadas mais superiores cuidam de assuntos mais abstratos de organizar e
monitorar fluxos de informação.
A camada física (physical layer) especifica como o hardware de interface
de rede regula os aspectos físicos e elétricos das conexões entre máquinas. A camada link
(link layer) traduz o fluxo de elétrons pelo meio físico em uma seqüência ordenada de bits
e decide quando transmitir ou receber mensagens do meio. A camada de rede (network
layer) lida com o endereçamento, roteamento e interface entre o computador e a rede. A
camada de transporte (transport layer) fornece uma confiável transmissão de dados. As
camadas de sessão (session layer) e apresentação (presentation layer) fornecem
melhoramentos em cima da camada de transporte. A camada de aplicação (application
layer) fornece serviços específicos ao software através do qual o usuário solicita serviços
de rede, como transferência de arquivos ou e-mail.
Esse modelo de sete camadas deveria constituir um grupo de nichos onde
qualquer protocolo ISO deveria se encaixar. O comitê OSI, que via seu trabalho como
complementar a outros movimentos de padronização, dizia que seu modelo permitiria que
construtores de rede o expandissem sem entrar em conflito com protocolos e interfaces
previamente definidas. O comitê esperava que sua proposta racionalizasse o processo de
escolha de padrões de rede sem impor especificações rígidas em um campo ainda muito
jovem. Na prática, esse equilíbrio seria muito difícil de manter.
Ao propor que padrões de rede fossem baseados em um modelo de rede
completo como sistema, o movimento Open Systems Interconnection moldou
significantemente a forma como profissionais de ciência da computação pensavam sobre
64
redes. O modelo OSI veio a dominar todas as tentativas subseqüentes de discussão de
protocolos de rede. Livros sobre redes eram preparados em base nas camadas OSI.
A autoridade da ISO no campo de padronização era tamanha que a moldura
OSI foi rapidamente endossada por órgãos de padronização em todos os países envolvidos
em redes de computadores. Nos Estados Unidos da América, o National Bureau of
Standards formou um Program in Open Systems Interconnection e em 1983 começou a
patrocinar seminários para ajudar os fabricantes de computadores a implementar os
protocolos OSI. O OSI era também bem vindo na Europa, onde a aceitação de padrões
técnicos comuns contribuiria no esforço de integração das economias européias ao
estabelecer um mercado uniforme para produtos de computação. Padrões públicos eram
vistos como tendentes a fortalecer as companhias de computação européias que eram muito
pequenas para impor seus padrões proprietários e assim poderiam enfrentar o domínio da
IBM e outras fabricantes no mercado mundial.
A apresentação do modelo OSI em 1978 deu um novo rumo ao debate de
padrões internacionais de rede. A ISO rapidamente adotou o X.25 como um protocolo
oficial OSI para a camada de rede (network layer) e nisso ganhou apoio das empresas de
telefonia. Mas em outros aspectos as duas organizações tinham prioridades distintas. As
telefônicas através da CCITT queriam preservar seu controle centralizado sobre redes de
comunicação nacional. Enquanto o grupo OSI tinha mais afinidade com as empresas de
telefonia sobre as camadas mais baixas dos padrões de rede, era mais próximo em espírito
com os usuários da Internet no tocante a padrões de camadas mais altas. A Internet em si
poderia ser considerada um “open system”, pois seus protocolos eram não-proprietários e
abertos, e eram projetados para incluir, ao invés de excluir, redes de diferentes tipos.
Contudo, o fato dos protocolos da Internet não terem sido definidos por um grupo oficial
de padronização e o fato de terem vindo dos Estados Unidos da América (que já dominava
o mercado de computação) fez com que fossem politicamente impossíveis de serem aceitos
pela ISO como padrões Open Systems.
Em 1982, a ARPA neutralizou o X.25 como um paradigma rival de rede, ao
colocar em funcionamento um equipamento chamado translation gateway que forneceu
uma interface entre a Internet baseada em TCP/IP e a Telenet, uma rede comercial baseada
em X.25. No sistema combinado, os aparelhos na Telenet executavam TCP/IP em cima dos
protocolos X.25 em nível mais baixo. Desse modo, o X.25, que deveria ser um completo
serviço de rede, agora apenas seria um componente subsidiário do esquema de rede da
65
ARPA. A interpretação do modelo OSI reforçou esse papel do X.25. Uma vez que o
conceito de hierarquia de protocolos tinha sido aceito e uma vez que o TCP, o IP e o X.25
tinham sido estabelecidos em diferentes camadas nessa hierarquia, ficava cada vez mais
fácil pensar nelas como partes complementares de um único sistema e mais difícil de
conceber o X.25 e os protocolos Internet como sistemas distintos e concorrentes.
O OSI assim re-definiu o debate sobre padrões de rede e trouxe nova
orientação para projetar e escolher protocolos de rede. Os protocolos OSI ganharam ampla
aceitação fora dos Estados Unidos da América. Entretanto apesar de boas intenções e
dedicação dos muitos envolvidos na ISO, o modelo OSI não chegou a atender sua
promessa de fornecer compatibilidade universal. A Internet continuaria a usar TCP/IP e a
OSI não teve sucesso em substituir sistemas de redes proprietárias. A IBM e outras
fabricantes continuaram a vender seus próprios protocolos, oferecendo produtos OSI
apenas quando a demanda de consumidores as forçava a isso. Como resultado, a
compatibilidade entre as redes usando protocolos distintos permaneceu um tema aberto.
Alguns profissionais de computação reclamavam do fato do modelo OSI ser
vazio: as camadas eram especificadas, mas por longos anos nenhum protocolo era
aprovado para a maioria das camadas. Usuários que não queriam aguardar a ISO terminar
de decidir sobre os padrões não tinham outra alternativa a não ser construir redes usando
outros protocolos.
Pior do que a demora na especificação de padrões, era quando a ISO
acabava sancionando múltiplos protocolos para algumas das camadas. Quando vários
protocolos atingiam uma grande gama de usuários a ISO tendia a aprovar todos como
padrões. Quase qualquer protocolo proprietário poderia ser proposto como um padrão OSI
se os fabricantes quisessem desistir de seu controle proprietário sobre ele. Isso prejudicou o
próprio plano da ISO de tornar os protocolos OSI um padrão único para todos os usuários
de computadores
4.6. Conclusão deste capítulo
66
A dinâmica da Internet, tratada no Capítulo 4, dá-se por meio das mudanças
de arquitetura.
Ao final dos anos 60, o campo de computação em rede ainda estava em sua
infância. Havia pouca teoria ou experiência para realizar orientação e as tecnologias de
computação e comunicação estavam em meio a grandes mudanças. Ao construir a
ARPANET, os projetistas gerenciaram essa incerteza ao incorporá-la como um elemento
do sistema. Ao invés de tentar racionalizar e planejar cuidadosamente cada aspecto do
sistema, os projetistas da ARPANET a projetaram para acomodar a complexidade,
incerteza, erro e mudança. Isso foi feito tanto através de escolhas técnicas como a
arquitetura em camadas e o princípio fim-a-fim e colocar seres humanos, com sua
adaptabilidade inerente, como uma parte integral do sistema.
O desafio de construir a rede de computadores havia sido enfrentado com
sucesso pelos criadores da ARPANET. A maior dificuldade foi convencer as pessoas a
usá-la. Os usuários foram essenciais para fazer com que a ARPANET se transformasse em
muito mais do que um experimento em comutação de pacotes. Aplicativos criados pelos
usuários se tornaram parte da infra-estrutura, e portanto ruindo a barreira entre usuário e
produtor. Ao adotar o e-mail ao invés da computação remota como aplicativo favorito, os
usuários criaram um sistema que correspondia às suas próprias necessidades e fornecia um
argumento para o valor do networking.
Todo o debate sobre os protocolos de rede abertos, proprietários e formais
ilustra como os padrões técnicos podem ser políticos (ABBATE, 1999, p. 179). Enquanto
certas intervenções do governo nos negócios e tecnologia como regulação de segurança e
ações antitruste são imediatamente entendidas como políticas, econômicas e sociais, a
definição de padrões técnicos é geralmente presumida como socialmente neutra e portanto
de pouco interesse. Mas as decisões técnicas podem ter fortes conseqüências econômicas e
sociais, alterando o equilíbrio de poder entre empresas concorrentes ou nações diferentes,
mesmo limitando a liberdade de usuários. Esforços para criar padrões formais trazem os
criadores de sistemas e suas decisões técnicas e privadas ao campo público; dessa forma,
batalhas de padrões podem trazer implícitos diversos conflitos de interesse. Por isso, a
definição legítima de padrões internacionais (tanto formais e públicos como “de facto”)
não pode ser deixada somente na mão do mercado. Por outro lado, uma intervenção
inadequada pode ser ainda mais prejudicial.
67
O TCP/IP aproveitava os benefícios de seu começo precoce para se tornar
um padrão “de facto” tanto nos Estados Unidos da América e cada vez mais
internacionalmente. Cada vez mais a controvérsia relativa ao padrão X.25 era neutralizada
abrindo caminho a uma convergência ou pelo menos acomodação entre os sistemas ARPA
e OSI. Sobrevivendo às disputas de padrões, a Internet despontou com uma base ainda
mais forte para expansão internacional.
Com isso, continuou o crescimento da Internet propulsionado pela
popularização do computador pessoal. Em pouco tempo, a forma de localização de dados
pela tabela de computadores não era mais suficiente e um novo sistema, o Domain Name
System – DNS, foi inventado.
68
5. INTERNET CORPORATION FOR ASSIGNED NAMES AND
NUMBERS (ICANN): NOMES E NÚMEROS
O início dos debates sobre a governança da Internet
Neste Capítulo será descrito como o processo técnico de identificação de
computadores conectados no sistema Internet ganhou relevância com a chegada de
interesses comerciais e como a Internet Corporation for Assigned Names and Numbers –
ICANN foi criada em meio a controvérsias internacionais que resultaram na Cúpula
Mundial sobre a Sociedade da Informação – CMSI. Os pontos abordados nesta seção
referem-se ao que ficou conhecido como governança estreita da Internet (narrow Internet
governance).
5.1. Nomes e números
O endereço IP é um dos elementos necessários para o funcionamento da
Internet. Trata-se de um número único separado por pontos, cujo conceito é muito
semelhante ao de um número de telefone, destinado a localizar máquinas conectadas na
Internet. Para que não haja duplicidade de números, é necessária alguma forma de
coordenação do sistema.
Um exemplo de endereço IP é 143.107.253.62. Como esse número não é
amigável ao usuário humano, um sistema que facilitasse a memorização desse endereço foi
criado, chamado Sistema de Nomes de Domínio (Domain Name System - DNS). Deste
modo, o endereço www.usp.br corresponde ao endereço IP 143.107.253.62.
A estrutura mais popular de um nome de domínio é tripartite: (i) o popular
“www”, referência à World Wide Web; (ii) um termo a ser escolhido; e (iii) um Top-Level
Domain – TLD, dos quais os mais populares são o “.com”, “.gov”, “.org”, entre outros,
além daqueles que fazem referência a um país (country-code Top-Level Domain –
69
ccTLD)50. Essa correspondência é realizada por um processo técnico que não será
detalhado nesta dissertação, mas que envolve recursos da rede relacionados aos servidores
raiz (root servers). Atualmente existem 13 servidores raiz, nomeados com letras de A a
M51, sendo que o Servidor Raiz A é o mais importante por ter a maior autoridade final
sobre as informações das listas. Os demais servidores raiz apenas copiam as informações
do Servidor Raiz A, mantendo-se regularmente atualizados.
5.2. O Sistema de Nomes de Domínio (Domain Name System - DNS)
O Sistema de Nomes de Domínio - DNS armazena informações sobre
nomes de domínio em um tipo de banco de dados distribuído na Internet, uma função hoje
vital para a Internet ao facilitar a transmissão de informações técnicas em um modo
amigável ao usuário.
Antes da invenção do DNS, o número de computadores e redes conectados
através da Internet começou a aumentar de forma que o antigo sistema de nomes ficou
sobrecarregado. Para coordenar e traduzir os nomes no antigo sistema da Internet, era
necessária uma enorme tabela que tinha que ser atualizada e distribuída sempre que
recursos eram adicionados, removidos ou modificados, o que ocorria freqüentemente. O
Network Information Center – NIC era responsável pela aprovação de novos nomes e por
manter e distribuir tais tabelas atualizadas. Como muitas vezes sua resposta não era
suficientemente rápida, muitos administradores começaram a usar suas próprias tabelas
não oficiais, porém atualizadas. Mais, quando o NIC distribuía tabelas atualizadas, o fluxo
de dados era tão grande que ameaçava sobrecarregar a rede com tráfego conforme elas
eram transmitidas por centenas de pontos. Os administradores reclamavam da inadequação
desse sistema, e era claro a todos que quanto mais a Internet crescesse, mais esse problema
seria agravado.
50 Para informações mais detalhadas sobre o DNS, recomenda-se a visita de http://www.icann.org/tlds/ 51Não é possível expandir além dessas letras devido a limitações de protocolo, mas os servidores C, F, I, J e
K agora existem em múltiplas localizações em diferentes continentes, usando uma tecnologia chamada anycast para oferecer um serviço descentralizado. Como resultado, a maior parte dos servidores raiz está hoje fisicamente localizada fora dos Estados Unidos.
70
Para lidar com isso, membros da comunidade técnica da Internet começaram
a enfatizar a idéia de dividir o espaço de nomes da Internet em um grupo de domínios
menores. Ao invés de uma única organização (como o NIC) manter grandes arquivos
relacionados a todos os nomes, cada domínio teria uma parte do espaço de nomes em sua
responsabilidade. O DNS eliminava a necessidade de distribuir grandes arquivos de tabelas
através da rede em intervalos freqüentes. Ao invés disso, a informação dos nomes seria
mantida nos servidores dos vários domínios. Ao invés de fazer com que cada computador
tivesse que manter tabelas listando centenas de endereços, agora eles precisavam saber
apenas os endereços de pequeno número de servidores de domínios, e por seguinte cada
servidor de domínio responderia com o endereço final desejado.
A tarefa de manter as listas atualizadas foi entregue à Network Solutions,
Inc. (NSI) através de um monopólio concedido pela National Science Foundation.
5.3. Privatização e os temas de gerenciamento
Por diversos motivos52, em abril de 1995 a espinha dorsal (backbone) da
rede até então mantida pelo governo norte-americano através da National Science
Foundation – NSF foi substituída por uma estrutura mantida por provedores comerciais.
Com tal privatização, a Internet foi aberta para um segmento muito maior do público norte-
americano, e o uso comercial ou de entretenimento ficou aceitável, pois até então era
proibido pela política de uso da rede.
Privatizar o backbone Internet havia sido uma tarefa relativamente simples,
mas a transição para operação comercial deixava aberta a questão sobre quem forneceria a
continuidade de planejamento técnico e administração do sistema. Cada rede integrante
que estava sendo conectada à Internet era responsável por suas próprias operações. Porém,
o desenvolvimento de protocolos, administração de nomes e endereços de Internet e outras
tarefas que afetavam todo o sistema ainda exigiam algum tipo de coordenação central, uma
função que a NSF não mais poderia cumprir.
52 Leitura adicional com detalhes sobre a privatização disponível em:
<http://www.governingwithcode.org/journal_articles/pdf/Backbone.pdf>. Acesso em 16.01.2006.
71
Em alguns casos, o controle sobre funções administrativas foi dividido entre
entidades competidoras comercialmente, sob o argumento de que a competição de mercado
encorajaria a inovação e impediria um grupo único de ganhar poder demasiado. No que diz
respeito aos nomes de domínio, que nos anos 90 começavam a atrair um grande valor de
mercado por se tornar símbolos valiosos de identidade empresarial e mesmo de
propriedade intelectual, a questão de quem deveria designar esses nomes ficou altamente
contestada. Alguns acreditavam que o registro de nomes deveria continuar sob o controle
central da InterNIC, um órgão sem fins lucrativos designado pelo governo norte-
americano. Outros, argumentando que a InterNIC era lenta e com pouca responsabilidade
em suas práticas de negócio, argumentavam que a competição seria bem-vinda para um
melhor serviço.
A decisão era difícil, pois o processo de nomes trazia diversos interesses
conflitantes e os perdedores potenciais estavam prontos para criticar qualquer sistema
proposto.
5.4. Jon Postel e a Internet Assigned Numbers Authority (IANA)
Para Craig McTaggart (1999), um dos grandes elementos de sucesso da
Internet é a continuidade das personalidades que lideraram as estruturas de governança
informal da rede. Por toda a história da Internet, incluindo a era ARPANET, o DNS e
outras funções de coordenação foram supervisionados pelo cientista Jonathan Postel.
Jon Postel foi um dos grandes responsáveis pela implementação do Domain
Name System (DNS), criando um grupo para nomes genéricos (gTLDs) e outro grupo para
nomes de países (ccTLDs). Para os gTLDs, ele sugeriu “.edu” para instituições
acadêmicas; “.gov”, para órgãos governamentais; “.mil”, para os militares; “.com”, para
empresas; “.org”, para organizações e “.net” para todas as outras redes.
Quanto aos ccTLDs, Jon Postel deixou muito claro no RFC 1951 (IETF,
1996) que sua delegação de ccTLDs não era uma decisão sobre o que seria ou não um país.
Ele associou as configurações técnicas com unidades listadas na lista ISO 3166 da
International Standardization Organization, que era a lista mais completa de 243 países e
72
territórios que Postel encontrou na época.
Até o fim dos anos 90, a maioria dos governos no mundo de certa forma
ignorava a Internet, incluindo até mesmo o gerenciamento de seu próprio ccTLD. O
sistema global da Internet cresceu à margem da política intergovernamental.
Apenas o governo dos Estados Unidos, que inicialmente financiou pesquisas
da Internet através do US Department of Defense e mais tarde através do National Science
Foundation desenvolveu algo como uma soft policy sobre Internet. A administração
Reagan de 1980 a 1988 criou com a filosofia de desregulação um ambiente aberto e
flexível para os desenvolvedores de Internet. Apenas quando o registro de nomes de
domínio de Internet chegou a mais de 100.000, no final dos anos 80, a administração Bush
propôs institucionalizar o gerenciamento do DNS.
De qualquer forma, a liderança informal de Jon Postel sobre as listas de
endereços fez com que ele ficasse no centro de uma controvérsia relacionada a quais novos
TLDs poderiam ser acrescentados ao sistema. Para cientistas como David Clark53, Jon
Postel sempre tomou decisões sábias, priorizando o que seria o melhor para o futuro da
Internet, sob seu ponto de vista.
Em um contrato assinado em 1989 entre o US Department of Commerce e o
Information Science Institute de Postel na University of Southern California, a Internet
Assigned Numbers Authority – IANA foi criada.
A Internet Assigned Names Authority sequer tinha personalidade jurídica e
essencialmente era o próprio Jon Postel, (ZITTRAIN, 1999). Ela se tornou a coordenadora
reconhecida dos recursos de Internet. Assim, gerenciava os bancos de dados TLD e
alocava os blocos de endereço IP regionalmente. Não é exatamente uma entidade, mas sim
um conjunto de funções e atribuições.
No começo dos anos 90, quando o número de detentores de Nomes de
Domínio ultrapassou a marca de um milhão, a Internet, estimulada pela World Wide Web,
se tornou uma plataforma comercial e as dimensões políticas e econômicas da coordenação
técnica dos recursos da Internet se tornaram mais e mais visíveis.
Em 1995, Postel, reconhecendo a necessidade de um sistema de
53 HARVARD UNIVERSITY. Transcript of dialogue between J. Zittrain and D. Clark. Cambridge: Harvard University, 1997. Disponível em: <http://cyber.law.harvard.edu/jzfallsem//trans/clark/>. Acesso em 16.01.2006.
73
gerenciamento do DNS mais estável e amplo do que ele poderia oferecer individualmente,
procurou mover a função IANA para o sistema da Internet Society – ISOC, uma associação
profissional internacional que reunia grupos ligados à arquitetura da Internet54. Porém, esse
esforço encontrou oposição tanto do governo norte americano como da indústria.
5.5. Network Solutions, Inc. e a escassez de nomes de domínio
Em 1995, a NSF interrompeu o financiamento financeiro para a Internet e o
Departamento de Comércio dos Estados Unidos da América permitiu que a Network
Solutions, Inc. – NSI , uma das beneficiárias do apoio NSF, introduzisse uma taxa anual de
registro de 35 dólares para cada nome de domínio. Em 1996 a NSI já tinha mais de 10
milhões de nomes registrados em seu banco de dados.
O negócio de registro de nomes de domínio provou ser um negócio
altamente lucrativo, atraindo a atenção de outros empreendedores que estavam interessados
em dividir o mercado da Network Solutions, Inc.
Logo após o começo das cobranças, Postel se manifestou contrário e
apresentou uma proposta para a criação de 150 novos TLDs a serem implementados em
três anos, o que geraria uma competição no mercado.
Em particular, a NSI que operava, na base de contrato com o Departamento
de Comércio dos Estados Unidos da América, o Servidor Raiz A (A Root Server), que é a
lista das listas, e gerenciava as funções de registro para os gTLDs .com, .org, .net e .edu,
temia que o plano de Postel para introduzir 150 novos gTLDs poderia prejudicar o
crescente mercado multimilionário de registro de nomes de domínio, pois a escassez
artificialmente criada era um estímulo para que os empresários não apenas registrassem os
domínios que pretendiam utilizar para sua empresa, mas também adotar estratégias
defensivas e ofensivas ao registrar o maior número possível de nomes de domínio
54 Mais informações podem ser obtidas no web site da Internet Society.
74
contendo derivações de suas próprias marcas e de terceiros55.
Um crescente interesse em algo como uma política de governança da
Internet estava também sendo observado na comunidade de marcas. Numerosos conflitos,
em um processo conhecido como DNS Wars, entre detentores de nomes de domínio e
detentores de marcas registradas começaram a deixar visível a necessidade de um sistema
consistente de resolução de disputas que protegesse marcas registradas na Internet.
5.6. Interim ad hoc Committee (IAHC)
Postel, querendo evitar tanto o controle governamental como comercial do
DNS, tentou encontrar uma “terceira via”. Em 1996, iniciou o chamado Interim Ad Hoc
Committee (IAHC).
O IAHC era uma rede que juntava três organizações técnicas (Internet
Assigned Names Authority – IANA, Internet Society – ISOC e o Internet Architecture
Board – IAB), duas organizações das Nações Unidas (a UIT e a Organização Mundial da
Propriedade Intelectual – OMPI), além de um grupo empresarial (a International
Trademark Association). O plano era estabelecer um comitê de supervisão política
composto pelos seis grupos como a mais alta autoridade no gerenciamento de nomes de
domínio, introduzindo sete novos gTLDs, licenciar 28 registros e mover o Servidor Raiz A
de Hemdom, Virginia para Genebra, Suíça. Para Postel, era importante que tanto
instituições governamentais como de negócios estivessem envolvidas.
O grupo elaborou o memorando de entendimentos conhecido como Interim
Ad Hoc Committee generic Top Level Domains Memorandum of Understanding (IAHC
gTLD MoU), que foi assinado em 2 de maio de 1997 e do qual a UIT foi depositária. O
secretário geral da UIT, Pekka Tarjanne, qualificou o MoU como o começo de uma nova
política global de Internet e um ponto de virada no direito internacional. O MoU não era
um tratado intergovernamental, mas sim, uma recomendação não vinculante assinada por
cerca de 80 instituições governamentais e de negócio. A maior parte dos membros da ITU 55 Como exemplo, o domínio www.mci.com havia sido registrado por uma competidora da MCI
Communications, a Sprint, em manobra que impedia a MCI de utilizar o domínio www.mci.com.
75
não participou das negociações do IAHC.
O MoU encontrou uma forte oposição. O governo dos Estados Unidos não
apoiou o plano de mudar o Servidor Raiz A para Genebra. A Secretária de Estado dos
Estados Unidos da América, Madeleine Albright, escreveu uma carta crítica a Pekka
Tarjanne, argumentando que o Secretário Geral da UIT havia ultrapassado os poderes de
seu mandato, quando assinou o IAHC gTLD MoU sem maior consultas aos Estados
Membros da UIT. A NSI, que via na recomendação uma ameaça ao seu monopólio no
negócio de registro de nomes gTLD, opôs-se fortemente ao MoU e fez lobby no Congresso
norte-americano para rejeitá-lo. Mais ainda, as entidades nacionais de registro de ccTLDs,
que não foram incluídos no gTLD MoU, criticaram sua exclusão. O IAHC gTLD MoU
havia fracassado.
5.7. Internet Corporation for Assigned Names and Numbers - ICANN
Dois meses depois, em 01.07.1997, o governo norte-americano apresentou
um plano alternativo. O relatório “A Framework for Global Electronic Commerce”
(UNITED STATES OF AMERICA, 1997) assinado pelo presidente Bill Clinton e vice-
presidente Al Gore, sugeriu uma privatização do DNS. O relatório norte-americano não
mencionava o IAHC gTLD MoU nem a UIT, e se tornou o ponto inicial para o processo de
contenda internacional que culminou na fundação da ICANN em novembro de 1998.
Em continuidade, o primeiro “Green Paper”56 (DoC, 1998) para realizar a
reforma foi publicado pelo Departamento de Comércio dos Estados Unidos da América no
começo de 1998. A proposta era a criação de uma nova entidade privada sem fins
lucrativos (“new private, non-commercial corporation - NewCo"), para introduzir a
competição no negócio de registro de nomes de domínio e desenvolver um mecanismo
para a solução de disputas sobre nomes de domínio.
O Green Paper provocou mais uma onda de críticas, dessa vez
principalmente dos representantes europeus e da Austrália. A UE criticou pesadamente a 56 Um green paper é um relatório preliminar do governo com propostas sem grande comprometimento para ação concreta. É o primeiro passo para a mudança legal. Um green paper pode resultar na produção de um white paper, que é um documento mais substancial e maduro em um tema de importância pública.
76
administração norte-americana e clamou por um órgão internacionalmente representativo
para futura governança da Internet, agora entendida como um meio global de comunicação.
Na época, o governo brasileiro, assim como o de diversos países, não se manifestou a
respeito.
Ira Magaziner, conselheiro de assuntos de Internet do presidente Clinton e
principal arquiteto do que mais tarde se tornaria a ICANN, respondeu à crítica européia em
uma audiência no congresso norte-americano dizendo que a intenção da proposta do US
Department of Commerce se limitava apenas à melhoria do gerenciamento técnico do
DNS. O Green Paper não buscava criar um sistema centralizado de governança da
Internet. Mais, Magaziner confessou duvidar se a Internet deveria ser governada por um
único órgão ou plano. Ele reconheceu que a Internet havia se tornado um meio
internacional para o comércio, educação e comunicação e aceitou a idéia de um órgão
internacional representativo e propôs que a composição do Conselho de Administração da
nova entidade fosse equilibrado e representasse a diversidade funcional e geográfica da
Internet.
Um White Paper (U.S. Department of Commerce, 1998), mais moderado e
equilibrado e publicado pelo Departamento de Comércio dos Estados Unidos da América
em junho de 1998 definiu quatro princípios para a nova entidade: (i) estabilidade da
Internet; (ii) competição no mercado de nomes de domínio; (iii) coordenação política
privada de baixo para cima (bottom-up); e (iv) representação global.
Logo após, uma série de seminários internacionais conhecida como
International Forum on the White Paper foi realizada entre diversos stakeholders
buscando identificar e articular os atores, temas e posições e dar uma personalidade
jurídica à nova entidade para atender às especificações do White Paper.
O porta voz do Departamento de Comércio dos Estados Unidos da América
acrescentou que o que se buscava era uma organização global e funcionalmente
representativa, operando em base de processos transparentes que fossem à prova de
tentativas de dominação por parte de interesses privados e que possibilitasse um
gerenciamento robusto e profissional. Os processos da nova entidade deveriam ser justos,
abertos e pró-competitivos, com mecanismos que possibilitassem evolução de acordo com
os interesses dos stakeholders da Internet.
Dentro de algumas semanas o estatuto social da nova entidade, a Internet
77
Corporation for Assigned Names and Numbers – ICANN, foi preparado. Seu projeto veio
principalmente de Ira Magaziner, enquanto o texto final, em grande parte de Jon Postel. O
processo de elaboração das minutas foi de certa forma aberto e transparente, pois todas as
minutas foram publicadas na Internet e um período de discussão disponibilizado para
comentário público. Porém, a fundação da ICANN foi vista como uma grande conspiração
por grupos que não foram envolvidos na redação final, ou que não tomaram conhecimento
da existência das negociações remotas.
Postel, que faleceu algumas semanas após, defendeu sua proposta ao
apresentar o resultado final ao Congresso norte-americano, dizendo que todos aqueles que
quiseram oferecer comentários tinham sido ouvidos e que a nova entidade seria única no
mundo – uma organização não governamental com responsabilidades significantes na
administração do que estava se tornando um importante recurso global
A ICANN foi então fundada como uma organização privada sem fins
lucrativos, representando a “comunidade global da Internet”, em uma estrutura sob leis da
Califórnia. O projeto da ICANN foi baseado na idéia de que os provedores e usuários da
Internet deveriam eles mesmos ter poder de tomada de decisão, enquanto os governos
deveriam apenas ter um papel de aconselhamento. Conseqüentemente, o Conselho de
Administração foi composto de 19 membros escolhidos pelos três assim chamados
Supporting Organizations for Domain Names, Internet Addresses and IP Protocols,
representando os provedores e desenvolvedores de serviços de Internet (o setor privado) e
nove membros que representariam o público em geral, ou seja os usuários individuais da
Internet. Os representantes dos governos não foram eleitos como membros do Conselho de
Administração da ICANN. Um “Government Advisory Committee” (GAC) para governos
nacionais foi convidado para dar aconselhamento ao Conselho de Administração em temas
de interesse público. Porém, de acordo com o estatuto social da ICANN, as recomendações
do GAC não tinham poder vinculante aos membros do CA da ICANN.
A criação da ICANN tornou o IAHC gTLD MoU obsoleto. Quando a
própria UIT realizou sua Conferência de Plenipotenciários em Minneapolis em outubro de
1998, o IAHC gTLD MoU foi tratado como um documento inexistente. Mesmo a
Resolução ITU 102 (ITU, 2002) que se referia a “Management of Domain Names and
Internet Addresses”, não fez referência ao IAHC gTLD MoU uma única vez. Ao invés
disso, convidava o Secretário Geral da UIT a tomar um papel ativo na discussão
internacional e nas iniciativas do gerenciamento de nomes de domínio e endereços, que
78
estava sendo liderado pelo setor privado.
Essa mudança na postura da UIT foi alcançada por uma negociação
diplomática: o governo norte-americano retirou sua oposição aos planos da UIT de
preparar uma conferência mundial sobre a Sociedade da Informação e em troca recebeu da
UIT um reconhecimento da liderança do setor privado na governança da Internet no
gerenciamento de nomes de domínio e endereços Internet.
Oito dias depois, o Interim ICANN Board of Directors teve sua primeira
reunião em Cambridge, Massachusetts, e em 25.11.1998 o Departamento de Comércio dos
Estados Unidos da América reconheceu a ICANN como a nova entidade buscada pelo
Framework for Global Electronic Commerce. O Memorando de Entendimento
(Memorandum of Understandings – MoU) entre o Departamento de Comércio dos Estados
Unidos da América e a ICANN era apenas para um período de transição. Após dois anos e
sob a condição de que a ICANN preenchesse suas funções, o Departamento de Comércio
dos Estados Unidos da América transferiria suas responsabilidades remanescentes,
incluindo o controle sobre o Servidor Raiz A e a função IANA para a ICANN.
Apesar do aparente consenso atingido em Minneapolis, as relações entre
UIT e Estados Unidos da América não estavam suaves. Durante o World Economic Forum
em Davos em janeiro de 1999, o Secretário Geral da UIT, Pekka Tarjanne, acusou o
Internet Adviser do presidente Clinton, Ira Magaziner, de hipocrisia. O governo americano
pregava a auto-regulação da Internet pelos prestadores e usuários sem envolvimento
governamental, mas ao mesmo tempo reservava um papel especial para si ao colocar o
Departamento de Comércio dos Estados Unidos da América como o último órgão de
supervisão na ICANN. Magaziner defendeu sua posição ao se referir ao período de
transição de dois anos e o previsível fim ao papel especial do Departamento de Comércio
dos Estados Unidos da América, o que não aconteceu até o momento presente por
aditamentos ao MoU, postergando seu encerramento.
O idealismo dos fundadores da ICANN não funcionou como originalmente
pretendido. Apesar do Conselho de Administração ser composto por representantes de
várias regiões do mundo com conselheiros norte-americanos em minoria, o resultado
prático na economia da Internet e no mercado de nomes de domínio é que a ICANN se
tornou muito voltada aos Estados Unidos da América, com a Verisign (nova denominação
da NSI) como seu principal ator. A idéia de eleger conselheiros representando os usuários
da Internet para balancear os interesses da industria privada não vingou. E o governo dos
79
Estados Unidos da América continuou no negócio de governança e a administração Bush
renovou o memorando de entendimentos entre a ICANN e o Departamento de Comércio
dos Estados Unidos da América e o estendeu até 30.09.2006.
Após os ataques terroristas de 11 de setembro de 2001, o ambiente político e
econômico da governança da Internet mudou drasticamente. Garantir a segurança e
estabilidade da Internet virou prioridade. A ICANN começou um processo de reforma e re-
desenhou sua estrutura de gerenciamento. Enquanto a representação de usuários de Internet
foi reduzida, o papel dos governos aumentou. Os princípios originais continuaram os
mesmos, mas a ICANN reformada ficou um pouco menos parecida com o órgão auto-
regulatório anteriormente imaginado e mais como uma organização de parceria público-
privada.
Entre as várias preocupações a respeito da ICANN, não há uma certeza a
respeito da necessária observância dos padrões IETF pela ICANN ao regular os serviços de
nomes de domínio, além de críticas a respeito de ausência de uma política clara para a
inclusão de novos Top-Level Domains, o grau de responsabilidade e sujeição à prestação
de contas da ICANN perante os usuários individuais e o grau a que a ICANN deve prestar
contas e ser responsável às exigências de governos ou ser independente deles57.
Como visto, a ICANN é responsável por temas relacionados ao
gerenciamento de recursos da Internet. Isso inclui a coordenação da alocação e designação
de nomes de domínio e endereços IP assim como a operação e evolução do DNS e de seu
sistema de servidores raiz. A ICANN também desenvolve política relacionada a essas
funções, fornecendo um serviço único e centralizado para a operação da Internet, em um
nível global e de um modo não-competitivo. Mais, ao executar sua missão a ICANN
também pode ser considerada como uma entidade que exerce função regulatória
internacional (AL-DARRAB, 2005, p.181). Exemplos de funções regulatórias incluem:
- regulação do preço e estrutura da indústria de registros de nomes de
domínio. Ela determina e licencia os registros de TLD e controla os preços cobrados pelos
57 São numerosas as discussões a respeito das reformas necessárias ao atual modelo ICANN, as quais são
geralmente consideradas temas de governança estreita da Internet. Para a dissertação, limitaremos a mencionar a existência dessa problemática, com a ressalva de que os temas objeto da dissertação incluem porém não se limitam aos temas de nomes e números. Reconhece-se porém a construtiva e importante iniciativa de numerosos estudos e debates acerca da governança da Internet com um foco voltado ao DNS, como, entre outros, o debate promovido pelo Berkman Center for Internet and Society: http://cyber.law.harvard.edu/is99/governance/introduction.html
80
registros;
- política e regulação do uso de recursos de nomes e endereços Internet,
incluindo o estabelecimento de novos TLDs genéricos e de country code;
- política e regulação da resolução de disputas, através de um mecanismo
compulsório e vinculante sobre nomes de domínio.
Organizações públicas que desenvolvem políticas e regulações
tradicionalmente funcionam em uma maneira previamente definida, transparente e aberta a
consultas e são responsáveis publicamente. Apesar da ICANN ter trabalhado para atingir
uma abordagem transparente e com consultas em um Conselho internacionalizado e com o
estabelecimento de vários grupos de aconselhamento, como uma entidade privada ela não
tem como ser publicamente responsável diante da comunidade internacional.
A supervisão da auto-regulação da indústria é geralmente um papel
desempenhado por governos nacionais e organizações intergovernamentais. No caso da
ICANN, esse papel é atualmente realizado pelo governo norte-americano. O papel dos
outros governos nacionais e de grupos de interesse público nos processos da ICANN é
limitado a aconselhamento e por isso um importante elemento de legitimidade
internacional está omisso (AL-DARRAB, 2005, p.182).
5.8. A Cúpula Mundial sobre a Sociedade da Informação – CMSI
Em continuidade ao acordo de Minneapolis para a realização de uma
conferência sobre a Sociedade da Informação, a Assembléia Geral da ONU, em dezembro
de 2001, adotou uma Resolução instalando a Cúpula Mundial sobre a Sociedade da
Informação – CMSI (World Summit on Information Society – WSIS) em duas fases: a
primeira em Genebra em dezembro de 2003 e a segunda na Tunísia em 2005. A CMSI foi
desenhada com amplo espectro de questões relacionadas à Sociedade da Informação, em
direção a uma visão e compreensão comum desta transformação social.
81
5.8.1 CMSI e governança da Internet
A ironia é que o Acordo de Minneapolis de outubro de 1998, que permitia
que a UIT realizasse uma conferência mundial e deixasse a governança da Internet nas
mãos do setor privado, acabou trazendo efeitos inesperados quando as preparações para a
primeira fase da CMSI começaram com a Conferência Preparatória número 1 – PrepCom1
em junho de 2002. A esta época, a ICANN estava no meio de um processo de reforma e a
UIT estava preparando sua próxima Conferência de Plenipotenciários para Marraqueche,
que tinha, entre outros, uma reavaliação da Resolution 102 sobre nomes de domínio em sua
agenda. A governança da Internet não era tema na PrepCom1, mas durante a série de
Conferências Ministeriais Regionais CMSI acabou adquirindo mais e mais atenção.
A Conferência Ministerial Regional CMSI Asiática em Tóquio de janeiro de
2003 acrescentou o gerenciamento de endereços IP ao lado de nomes de domínio. A
Declaração de Tóquio dizia que a transição para a Sociedade da Informação exigia a
criação de molduras jurídicas, regulatórias e políticas apropriadas e transparentes em nível
global, nacional e regional. Tais molduras deveriam dar a devida consideração aos direitos
e obrigações de todos os stakeholders em áreas como liberdade de expressão, privacidade,
segurança, gerenciamento de endereços Internet e nomes de domínio e proteção ao
consumidor, enquanto também mantém incentivos econômicos e assegurando a confiança
em atividades empresárias.
A Conferência Ministerial Regional CMSI da América Latina, em Bávaro
de janeiro de 2003, foi um passo adiante. Aqui pela primeira vez o termo “governança da
Internet” aparece em um documento CMSI. O parágrafo relevante da Declaração de
Bávaro fala em estabelecer as molduras nacionais legislativas apropriadas, salvaguardando
o interesse público e o geral e a propriedade intelectual, e, que colabore com as
comunicações e transações eletrônicas. A proteção contra ofensas civis e criminais, temas
referentes à solução de disputas, segurança de rede, assim como assegurar a
confidencialidade de informação pessoal são considerados essenciais para criar confiança
em redes de informação. A governança multilateral, transparente e democrática da Internet
deve fazer parte deste esforço, levando em consideração as necessidades dos atores
públicos e privados, assim como os da sociedade civil.
A Conferência Ministerial Regional CMSI da Ásia Ocidental em Beirute de
82
fevereiro de 2003 deu mais um grande passo ao introduzir idéias como “organização
internacional apropriada”, “multilingüismo” e “soberania nacional” em relação à
governança da Internet. O artigo 2, parágrafo 4 da Declaração de Beirute diz que a
responsabilidade por diretórios raiz e nomes de domínio deve ser mantida com uma
organização internacional apropriada e deve levar o multilingüismo em consideração. O
controle de TLDs nacionais e a designação de endereços IP devem ser um direito nacional
soberano. A soberania de cada nação deve ser protegida e respeitada. A governança da
Internet deve ser multilateral, democrática e transparente e deve levar em consideração as
necessidades dos atores públicos e privados assim como os da sociedade civil.
Paralelamente às Conferências Ministeriais Regionais CMSI, a UIT tinha
sua própria Conferência de Plenipotenciários em Marraqueche agendada para outubro de
2002. Durante a conferência de Marraqueche surgiu uma controvérsia quanto à liderança
do setor privado e o futuro papel da UIT na governança da Internet. Apesar de nos
primórdios da ICANN os membros da UIT não estarem satisfeitos com a nova entidade,
em Marraqueche os governos norte-americano e europeus, apoiados pelos membros do
setor privado da UIT, expressaram sua satisfação com o processo de reforma da ICANN e
se posicionaram em favor da continuidade da ICANN como um líder na governança da
Internet.
Porém, o processo da CMSI havia despertado em um crescente número de
países em desenvolvimento o entendimento sobre o tema do gerenciamento de nomes de
domínio e endereço IP como um tema relacionado à sua soberania e ao desenvolvimento
econômico. Os paises em desenvolvimento se sentiam sub-representados na ICANN e
culpavam a corporação privada com sede na Califórnia por ser dominada pelos Estados
Unidos da América e estar aprofundando a brecha digital58. Tais países sentiram que não
tinham as oportunidades adequadas para participar do processo de tomada de decisões na
ICANN e criticaram a função de controle do governo dos Estados Unidos da América
sobre o Servidor Raiz A. Adicionalmente, alguns governos vieram com a idéia de
governança ampla para regular a Internet em geral, de forma semelhante com as
telecomunicações e radiodifusão, para proteger temas econômicos ou políticos em áreas
como controle de conteúdo, cibercrimes ou VoIP.
A controvérsia de Marraqueche produziu uma renovada Resolução 102 na 58 Brecha digital, ou “digital gap” ou “digital divide” é conceito relacionado à dificuldade em obtenção de
acesso a TICs.
83
qual o relacionamento entre a liderança da indústria privada e o envolvimento do governo
foi re-equilibrado. O papel chave e a liderança do setor privado conquistados na resolução
de 1998 foram substituídos pelo reconhecimento de um papel muito importante. Por outro
lado, a soberania de governos nacionais sobre o espaço de seus domínios nacionais, os
ccTLDs, foi fortalecido. A resolução tentou ainda separar os temas políticos dos técnicos.
Enfatizou que o gerenciamento de nomes de domínio e endereços inclui tarefas técnicas e
de coordenação, para as quais os órgãos privados podem ser responsáveis. Identificou
também assuntos de interesse público como estabilidade, segurança, liberdade de uso,
proteção de direitos individuais, soberania, regras de competição e acesso equânime a
todos, pelos quais os governos e organizações intergovernamentais são responsáveis e para
as quais as organizações internacionais contribuem. O Secretário Geral da UIT recebeu a
instrução de tomar um papel significante nas discussões internacionais e iniciativas no
gerenciamento de nomes de domínio e endereços Internet e para encorajar todos os
Estados-membros a participarem de discussões sobre o gerenciamento internacional de
nomes de domínio e endereços Internet, de modo que representação global dos debates
pudesse ser assegurada.
Na Conferência Preparatória número 2 – PrepCom2, que ocorreu uma
semana após Beirute, a governança da Internet de repente se tornou um tópico principal. A
recomendação da conferência de Beirute foi um evento em que a governança da Internet
ganhou destaque inesperado em um ambiente onde até então somente se falava em direitos
humanos, brecha digital, cibersegurança e estabelecimento de um fundo de solidariedade
digital.
Durante a Conferência InterSessional CMSI de Paris em julho de 2003, os
governos criaram um Internet Governance Ad Hoc Working Group que se tornou o
principal corpo de negociação até dezembro de 2003. De acordo com a abordagem
multistakeholder, o setor privado e a sociedade civil estavam para se envolver diretamente
nas discussões desde o começo.
5.8.2 As críticas da CMSI
84
Apesar do funcionamento do DNS e do sistema de servidores raiz estar
adequado em termos técnicos, durante a CMSI houve críticas a respeito de sua estrutura
por não estar em conformidade com o princípio da igualdade soberana, princípio derivado
de norma jus cogens do direito internacional contemporâneo da Carta das Nações Unidas e
que regula o relacionamento entre nações. A crítica era baseada em três grandes pontos:
(i) o papel especial dos Estados Unidos da América que autorizava as
publicações nos arquivos da zona raiz no servidor A;
(ii) o fato de que 10 dos 13 servidores raiz estão localizados nos Estados
Unidos da América; e
(iii) o aspecto informal dos acordos relacionados às operações dos
servidores raiz.
Um número considerável de países, liderados por China, Brasil, Índia e
África do Sul, chamava um papel maior no gerenciamento de recursos da Internet. Era
argumentado que tais recursos seriam cruciais também no funcionamento da infra-estrutura
nacional da Internet e assim com impacto em seus interesses nacionais. Eles reconheciam o
papel especial dos Estados Unidos da América nos primórdios da Internet, mas deixaram
claro que o que era adequado na sua fase inicial não mais era adequado no momento atual
em que a Internet se tornara uma mídia global.
O sistema, argumentavam seus críticos, era baseado em confiança, de modo
que o mundo depende de boa vontade dos Estados Unidos da América para o
funcionamento da Internet. Tais críticos reconheciam que os Estados Unidos da América
nunca utilizaram esse poder com má-fé e que o sistema até hoje funciona sem problemas,
mas que não existe garantia jurídica que isso continuará sem problemas. O papel especial
dos Estados Unidos da América em autorizar qualquer publicação de qualquer
modificação, remoção ou acréscimo de arquivos no banco de dados dos servidores raiz foi
entendido como um privilégio injusto com um alto fator de risco para o mundo.
Assim, em teoria os Estados Unidos da América poderiam utilizar esse
privilégio para punir um país ao remover o seu ccTLD da raiz. Como resultado, os usuários
registrados abaixo de tal ccTLD eventualmente seriam impedidos de manter comunicação
com usuários em outros domínios.
De modo geral esses países entendiam mais adequado que um tratado
pudesse garantir maior segurança jurídica ao sistema do DNS.
85
5.8.3. Primeira Fase da CMSI: Genebra, 2003
Finda a primeira fase da CMSI em dezembro de 2003, foram adotados dois
documentos estruturais59: uma Declaração de Princípios60 e um Plano de Ação para
facilitar o efetivo crescimento da Sociedade da Informação e ajudar a eliminar a exclusão
digital. Reunindo representantes dos altos escalões do governo, setor privado, sociedade
civil e organizações internacionais, a fase de Genebra da CMSI configurou uma
oportunidade única para a comunidade global discutir e dar forma à Sociedade da
Informação.
Ao final da primeira fase da CMSI, foi reconhecido que esta tarefa deveria
envolver todas as partes interessadas. Para iniciar o processo, foi solicitado ao Secretário-
Geral das Nações Unidas que fosse estabelecido um Grupo de Trabalho que investigasse e
fizesse propostas de ação para a governança da Internet. Esse Grupo de Trabalho sobre a
Governança da Internet – GTGI (Working Group on Internet Governance – WGIG)
preencheria a lacuna deixada pelos inúmeros especialistas que não chegaram a um acordo
acerca da mais adequada definição do que consistiria “governança da Internet”.
Seguem os trechos correspondentes dos documentos produzidos pela
Primeira Fase da CMSI relacionados à governança da Internet:
59 Analisando a Agenda 21, adotada ao final da Conferência do Rio 92, Nasser (2005, p. 129) defende que onde há a necessidade e possibilidade de um compromisso jurídico, um tratado é celebrado. Quando não se reconhece a necessidade de normas obrigatórias ou não se constrói o consenso favorável ao comprometimento jurídico, declaram-se princípios e se fazem declarações. No caso de identificação de necessidade de ação futura e conjugação de esforços, porém sem a disposição para obrigações jurídicas, se estabelece um plano de ação. Como são compromissos dos Estados, alguns dizem haver aí um grau de juridicidade que implica em soft law. 60 Assim como a Declaração sobre o Meio Ambiente Humano de 1972 pode ser considerada como um documento com a mesma relevância para o Direito Internacional e para a Diplomacia dos Estados que teve a Declaração Universal dos Direitos do Homem, (SOARES, 2003, p.55) a Declaração de Princípios também é entendida como instrumento de soft law que exerce o papel indicador na definição de princípios mínimos que devem idealmente constar nas legislações domésticas dos Estados e de futuros textos de Direito Internacional. Como constatado por Nasser (2005, p.126), das conferências internacionais, fenômeno da diplomacia no século XX, é usual que resultem inúmeros documentos, adotados pelos Estados participantes. Tais documentos podem ser tratados ou instrumentos não vinculantes. Dentre estes se destacam as grandes declarações.
86
5.8.3.1. Declaração de Princípios
48. A Internet tem se transformado em uma facilidade global disponível ao público e sua governança deve constituir um tema central na agenda da Sociedade da Informação. A gestão internacional da Internet deve ser multilateral, transparente e democrática, com total envolvimento dos governos, do setor privado, da sociedade civil e das organizações internacionais. Esta gestão deve garantir uma distribuição eqüitativa de recursos, facilitar o acesso para todos e garantir o funcionamento estável e seguro da Internet, levando em consideração o multilingüismo.
49. A gestão da Internet abrange tanto as questões técnicas quanto as de políticas públicas e deve envolver todas as partes interessadas e as organizações intergovernamentais e internacionais relevantes. A esse respeito, reconhece-se que:
a) a autoridade política para questões de políticas públicas relativas à Internet é direito soberano dos Estados. Eles têm direitos e responsabilidades para com as questões internacionais de políticas públicas relativas à Internet;
b) o setor privado tem tido e deve continuar tendo um importante papel no desenvolvimento da Internet, tanto no campo técnico como no econômico;
c) a sociedade civil também tem desempenhado um importante papel nas questões relativas à Internet, especialmente em nível comunitário, e deve continuar a desempenhar tal papel;
d) as organizações intergovernamentais têm tido e devem continuar tendo um papel facilitador na coordenação das questões de políticas públicas relativas à Internet;
e) as organizações internacionais também têm tido e devem continuar tendo um importante papel no desenvolvimento dos padrões técnicos e das políticas relevantes relacionados à Internet. (tradução nossa)
5.8.3.2. Plano de Ação
13. Para maximizar os benefícios sociais, econômicos e ambientais da Sociedade da Informação, os governos precisam criar um ambiente legal, regulador e de política confiável, transparente e não discriminatório. As ações incluem:
[...]
87
b) Solicitamos ao Secretário-Geral das Nações Unidas que estabeleça e coordene um grupo de trabalho sobre governança da Internet até 2005, em um processo inclusivo que garanta um mecanismo para a plena e ativa participação dos governos, do setor privado e da sociedade civil, tanto dos países em desenvolvimento quanto dos desenvolvidos, envolvendo as organizações e os fóruns internacionais e intergovernamentais relevantes, para investigar e apresentar propostas de ação, conforme apropriado, sobre a governança da Internet até 2005. O grupo deve, entre outras atividades:
i) desenvolver uma definição de trabalho de governança da Internet;
ii) identificar as questões de políticas públicas relevantes para a governança da Internet;
iii) desenvolver um entendimento comum dos respectivos papéis e responsabilidades dos governos, das organizações intergovernamentais e internacionais existentes e outros fóruns, assim como do setor privado e da sociedade civil, tanto de países desenvolvidos quanto de países em desenvolvimento;
iv) preparar um relatório sobre os resultados desta atividade a ser apresentado para consideração e ações apropriadas para a segunda fase da CMSI, em Tunis 2005; (tradução nossa)
5.8.4. O Relatório do Grupo de Trabalho sobre a Governança da Internet - GTGI
Quando o GTGI se reuniu para discutir o assunto, não houve consenso entre
seus membros a respeito das críticas levantadas durante o processo da CMSI a respeito da
ICANN. Enquanto alguns de seus membros argumentavam em favor de uma convenção ou
tratado que pudesse dar mais estabilidade à Internet e que todos os governos deveriam
compartilhar responsabilidade por seu funcionamento estável, os oponentes de um tratado
argumentavam que isso poderia burocratizar o gerenciamento dos recursos essenciais da
Internet, causando uma politização de questionamentos técnicos com resultados
desastrosos para o funcionamento e continuidade de desenvolvimento da Internet.
O único consenso possível de ser alcançado é que alguns princípios sobre
um sistema de gerenciamento deveria ser aperfeiçoado, conforme o parágrafo 48 do
Relatório do GTGI:
- nenhum governo unicamente considerado deve ter um papel preeminente
em relação à governança internacional da Internet;
88
- a forma organizacional para a função de governança será multilateral,
transparente e democrática, com o envolvimento total de governos, o setor privado,
sociedade civil e organizações internacionais;
- a forma organizacional para a função de governança envolverá todas as
partes interessadas e relevantes organizações intergovernamentais e internacionais dentro
de seus papéis respectivos.
Com relação à supervisão da ICANN, o GTGI indicou em seu relatório
quatro diferentes propostas para discussão, deixando aos diplomatas a tarefa de negociar o
tema no processo da CMSI. Apesar de tal flexibilidade, a CMSI, em sua última reunião,
não foi capaz de resultar em mudanças imediatas na supervisão da ICANN ou mesmo de
sua constituição. A análise do Internet Governance Project - IGP é de que isso somente
ocorreu pelo fato de que nenhuma mudança poderia ser feita sem a concordância dos
Estados Unidos da América, que indicaram que não pretendiam realizar qualquer mudança
(UNITED STATES OF AMERICA, 2005).
Mesmo assim, a CMSI iniciou processos de longo prazo que mudarão o
papel dos governos nacionais na política ampla de Internet, especificamente sobre a
ICANN. Quase todos os temas de governança da Internet levantados na CMSI
permaneceram abertos, como o controle unilateral dos Estados Unidos da América sobre a
raiz, a supervisão política da ICANN, o papel dos governos na definição de políticas
públicas para a Internet, entre outros.
5.8.5. Um marco positivo na governança da Internet
Ainda que capítulos anteriores à CMSI apresentem registros esparsos de
decisões relacionadas à governança da Internet, os eventos pós-Genebra merecem
destaque.
Organizações internacionais governamentais como a UIT, OMPI e OMC
vinham até então tomando decisões isoladas e muitas vezes contraditórias com relação a
aspectos específicos de governança da Internet que afetavam os interesses do setor privado
e da sociedade civil, assim como as relações entre governos. Durante esse mesmo período,
89
organizações internacionais não governamentais como a ICANN e grupos sem
personalidade jurídica como a IETF e até indivíduos como Jon Postel também tomaram
decisões que afetam os interesses de toda a Sociedade da Informação. Independentemente
dos méritos de processos como os RFCs, tais decisões nunca seguiram uma moldura
política como a proposta pela CMSI, legitimada pela discussão multistakeholder completa
que reconhece a importância de todas as partes interessadas.
Pode-se dizer que o tema de governança da Internet foi o mais polêmico
dentro da primeira fase da CMSI. Havia nas mesas de negociação diversas posições, não
raro excludentes e contraditórias. Alguns defendiam uma definição de governança
meramente técnica e restrita ao DNS enquanto outros desejavam uma definição mais
ampla, incluindo temas como segurança, propriedade intelectual, proteção ao consumidor e
proteção de dados.
No capítulo 6 será analisada qual foi a decisão acerca do escopo para a
definição de trabalho da governança da Internet.
5.9. Conclusão deste capítulo
Para a localização de dados na Internet é necessário o uso de um sistema
técnico que associe números a determinados nomes de fácil memorização: o Domain Name
System – DNS. Com o afastamento do governo norte-americano no gerenciamento do DNS
na privatização de 1995, haveria a necessidade de indicar alguém para assumir diversas
funções, incluindo as relacionadas ao DNS. Até 1989 havia uma modalidade extremamente
pessoal e informal de governança do DNS: o cientista Jon Postel fazia tudo
individualmente, quando passou a operar sob o nome de IANA.
Com a expansão da Internet, Postel tentou transmitir a supervisão do DNS
para a Internet Society e encontrou oposição da empresa que tinha interesses financeiros no
negócio de DNS, a Network Solutions, Inc. Postel criou o Internet ad hoc Committee –
IAHC, que não obteve resultado concreto. Mais tarde, o International Forum on the White
Paper foi realizado e finalmente após um papel de intervenção dos Estados Unidos da
América a Internet Corporation for Assigned Names and Numbers – ICANN foi
90
constituída em 1997. Em contrapartida, a UIT realizaria sua Cúpula Mundial sobre a
Sociedade da Informação – CMSI e consolidaria a liderança do setor privado no DNS.
Entretanto, com o aumento da percepção global sobre a importância da governança da
Internet, a primeira fase da CMSI gerou grande controvérsia resultando na criação do
Grupo de Trabalho sobre a Governança da Internet – GTGI.
Essa história confusa e repleta por lutas de poder é que marcou a primeira
noção de governança da Internet. Esse tema porém surgiu com uma força inesperada na
CMSI, transformando-se em algo muito maior. O GTGI teria um grande desafio adiante:
apresentar uma definição de trabalho sobre o controverso tema da “governança da
Internet”, de modo a resolver as discussões entre as diferentes visões que entendiam que a
governança seria ou um tema estreito relacionado aos nomes e números do DNS ou um
tema amplo que compreenderia o futuro da Internet e os diversos efeitos políticos, sociais e
econômicos.
91
6. COLABORAÇÃO: GOVERNANÇA
A visão ampla da governança da Internet como modo de colaboração entre
stakeholders
Este Capítulo analisará genericamente o tema, sintetizando a base teórica
utilizada na dissertação com os resultados do Relatório do Grupo de Trabalho sobre a
Governança da Internet – GTGI e as decisões da segunda fase da Cúpula Mundial sobre a
Sociedade da Informação - CMSI.
Governança da Internet é um tema complexo que, entendido na sua forma
ampla, ultrapassa as questões ligadas a nomes e números apresentadas no Capítulo 5.
A governança pode ser entendida sob o prisma do poder. Ao estabelecer
regras claras de como o poder pode e deve ser exercido por vários atores, diminui a
possibilidade de obtenção de ganhos em disputas de pouca transparência. Analisaremos
esse fenômeno na definição de padrões internacionalmente.
6.1. Definição de “governança”
O termo “governança” deriva da palavra grega kybernao e é atrelado ao
verbo latim gubernare, que significa guiar, pilotar, dirigir. Para o GTGI, a definição deve
ser focalizado nesses processos de condução e ser neutra com relação ao ator com o poder
de conduzir em um determinado momento, em outras palavras, enfatizar o ato de
governança ao invés de realizar uma equiparação com governos.
A governança é um termo guarda-chuva debaixo do qual se encontram
diversas modalidades de manifestação, por exemplo, a legislação nacional, a auto-
regulação setorial, os acordos internacionais, os contratos entre particulares, e mesmo
modalidades com uma intensidade jurídica menos formal, como formas de vigilância,
freios e contrapesos, agências regulatórias e sistemas de arquitetura que estimulam
92
determinados comportamentos. É forma ampla para se referir a técnicas de controle. Por
vezes será também utilizado o termo “regulação” em sentido próximo da definição de
governança 61.
O Grupo de Trabalho sobre a Governança da Internet – GTGI, em junho de
2005, divulgou seu Relatório Final, acompanhado de um Background Report (WGIG,
2005) complementar que reflete muito das discussões realizadas pelo GTGI e que, apesar
de não ter o mesmo status que o Relatório Final, pode ser usado como referência em
diversos temas. O Background Report faz referência à noção de governança, que influencia
processos políticos e instituições públicas ao moldar a forma como as pessoas interagem
com o governo e como o governo interage com elas. A governança porém ocorre em outras
áreas da vida social e cada vez mais é reconhecido o papel das organizações da sociedade
civil nas agendas de organizações públicas e privadas, nacionais e internacionais. Assim, a
governança é parte de vários processos distintos relacionados à Internet, incluindo o
desenvolvimento de padrões técnicos e gerenciamento de recursos centrais assim como a
regulação sobre o uso e abuso da Internet.
Embora vital e central em processos globais de governança, o papel da
Organização das Nações Unidas não pode ser exercido de forma isolada. A ONU tem a
vocação para ser o fórum no qual os governos colaborem entre si e com outros setores da
sociedade na gestão multilateral dos assuntos globais. Ao longo dos anos, a ONU e seus
organismos constituintes fizeram contribuições vitais para a comunicação e a cooperação
internacionais em diversas áreas. Mas a ONU e seu sistema precisam ser reformados e
revitalizados (COMISSÃO DOBRE GOVERNANÇA GLOBAL, 1996, p.4) e houve uma
preocupação muito grande nos momentos que precederam a segunda fase da CMSI de que
a ONU pudesse tomar posse da Internet62. Apesar do esclarecimento do próprio Secretário
Geral da ONU de que não era intenção das Nações Unidas dominar a Internet (ANNAN,
2005), as acusações revelam que existe uma preocupação geral sobre como o poder é
exercido.
61 Assim, para os fins deste estudo, diferencia-se o termo “regulação” da definição de Salomão Filho (2001) ,
a qual é voltada especificamente à modalidade de regulação que busca a organização da atividade econômica através do Estado.
62O senador norte-americano Norm Coleman liderou um movimento de pressão política sobre o governo Bush para que os Estados Unidos da América não cedessem seu poder político sobre aspectos de governança da Internet ao sistema das Nações Unidas. Mais detalhes em U.S. Senator: Keep U.N. away from the Internet.
93
6.2 .Soft power, hard power, e a soft law e hard law
Para os professores de ciência política Robert Keohane e Joseph S. Nye Jr.
(2000), a governança é o conjunto dos processos e instituições, tanto formais como
informais, que guiam e restringem atividades coletivas de um grupo. Na introdução da obra
Governance in a Globalizing World, os autores exploram as ligações entre governança e
dois conceitos de poder: soft power e hard power.
O soft power é um meio flexível de atingir objetivos pela atração que estes
oferecem aos atores envolvidos, diferindo do hard power, política que utiliza sanções e
estímulos de poderio econômico e militar para subjugar os demais à vontade do detentor do
poder.
Os conceitos de soft e hard power espelham semelhante divisão no Direito:
a soft law e a hard law. De acordo com Soares (2002, p.127),
o reconhecimento de existirem normas muito flexíveis, que constituiriam conjunto de regras jurídicas de conduta dos Estados, cuja inadimplência seria governada por um sistema de sanções distintas das previstas nas normas tradicionais, possivelmente assimiláveis às obrigações morais versadas nos sistemas obrigacionais internos dos Estados; trata-se da discussão sobre a existência do que se tem denominado de soft law, por oposição às normas tradicionais, então qualificadas de hard law
Essa oposição compõe um espectro de diversas tonalidades: o par soft/hard
law não constitui um sistema binário e cada um deles tem um papel de importância. É
necessário observar que os acordos internacionais que não são concluídos na forma de
tratados, como o caso do resultado da CMSI, também têm uma importância nas relações
internacionais. Freqüentemente os Estados preferem obrigações que não são tratados por
serem mais simples e mais flexíveis para as relações futuras, mesmo apesar de tais
documentos não serem cobertos pela Convenção de Viena sobre o Direito dos Tratados de
1969 e nem mesmo serem fontes do direito no sentido do Artigo 38 do Estatuto da Corte
Internacional de Justiça.
94
Harmut Hilgenberg (2003) aponta diversos motivos pelos quais os tratados
são evitados, dentre os quais destacamos:
- procedimentos mais simples e portanto facilitadores de uma finalização
mais célere;
- evitar procedimentos trabalhosos de aprovação doméstica na ratificação
em caso de aditamentos;
- acordos podem ser celebrados com partes que não possuem poder de
negociar tratados sob o direito internacional.
Com relação ao último ponto, de fato a diplomacia multistakeholder ganha
cada vez mais importância e a CMSI foi um grande exemplo de como as múltiplas partes
interessadas puderam interagir e apresentar seus posicionamentos e defender seus
interesses, produzindo documentos de grande força e legitimidade.
Hilgenberg (2003) também menciona que os acordos não-tratado também
não exigem ratificação, inclusive mencionando o caso norte-americano, cuja prática de
concluir acordos não-vinculantes para evitar envolvimento do Senado é comum.
Os acordos não-tratado seriam concluídos pelo fato dos Estados envolvidos
não pretenderem criar um tratado completo que, no caso de descumprimento, poderia
resultar em uma violação ao direito internacional com execução em cortes internacionais
ou outros mecanismos de resolução de disputas.
Para Hilgenberg (2003), os acordos não terão força vinculante se aqueles
envolvidos procederam a partir da presunção de que suas declarações de forma alguma
representam um comprometimento, mas, ao contrário, são intencionadas a expressar
valores comuns, interesses ou desejos e expectativas incertas. Isso significa que as partes
não apenas excluem o princípio pacta sunt servanda (Artigo 26 da Convenção de Viena
sobre o Direito dos Tratados), mas também a validade de qualquer regra suplementar. Os
acordos não-tratado, conforme a vontade das partes, não estão sujeitos ao direito
internacional dos tratados, mas contém regras governando os relacionamentos entre as
partes e merecem atenção internacional.
Pela ausência de sanção exterior e institucionalizada, a soft law poderia ser
questionada. Bobbio (1999, p.27), ao discorrer sobre a definição de direito em Teoria do
Ordenamento Jurídico, refere-se aos progressos alcançados em obra precedente, Teoria da
95
Norma Jurídica, em que se determinou “a norma jurídica através da sanção, e a sanção
jurídica através dos aspectos de exterioridade e de institucionalização, donde a definição de
norma jurídica como aquela norma ‘cuja execução é garantida por uma sanção externa e
institucionalizada”
A visão jurídica deve ser ampla para a regulação. No dizer de Nasser (2005,
p. 26):
A literatura da soft law, em termos gerais, não se ocupa tanto com o direito propriamente. Seu foco está na descrição mais acurada possível dos regimes regulatórios, entendidos estes de modo mais genérico, como ordem internacional ou governança, ou de modo mais específico, segundo as áreas de interesse, como meio ambiente, comércio, lavagem de dinheiro, e outros. O analisa das relações internacionais como um todo, ou o estudioso de seus problemas específicos, ao tentar entender e explicar o funcionamento ordenado das relações, ou o gerenciamento de regimes reguladores, precisa reconhecer o lugar que têm os fenômenos da soft law dentro do seu universo de análise, sem necessariamente preocupar-se com a distinção entre o que seria direito e o que não o é.
Na aplicação prática, entretanto, a soft law revela ser tão significante
quanto a hard law, compondo, principalmente no direito internacional, um elemento de
técnica jurídica acabado que pode por si só gerar efeitos, e não um mero degrau necessário
para alcançar uma hard law.
Em verdade, os acordos não-tratado podem ser executados de maneira soft
pela criação de mecanismos de controle aos quais as partes voluntariamente se submetem.
Tais mecanismos geralmente estão atrelados a uma pressão internacional ou interna
considerável, e seus resultados estão sujeitos à opinião pública.
Os acordos não-tratado não são substitutos para tratados, mas sim uma
ferramenta independente que pode ser usada para regular seu comportamento em casos
onde, por diversos motivos, um tratado está fora de cogitação.
Quanto à governança da Internet pós CMSI, resta provado que a soft law é
fundamental, pois diversos compromissos não conseguiriam ser negociados através apenas
de hard law. Os documentos da CMSI como a Agenda de Tunis, o Compromisso de Tunis,
o Plano de Ação de Genebra e a Declaração de Princípios de Genebra, assim como as
Declarações Regionais, têm o potencial de desenvolver normas soft law. Elas não são
juridicamente vinculantes, mas são geralmente o resultado de negociações prolongadas e
aceitação por todos os países. O comprometimento de que os Estados-nação e outras partes
interessadas apresentam ao negociar tais instrumentos e em alcançar um consenso
96
necessário é importante elemento para considerar tais documentos mais do que simples
declarações políticas.
Nessa abordagem, evitam-se as discussões acerca da eventual deficiência da
soft law63 dentro do ordenamento jurídico, como o fato de não ser ela uma nova fonte
autônoma do direito internacional64. Conclui-se que, para o estudo de governança, o
elemento essencial é a eficácia da regulação. Tal conclusão nos afasta da vinculação da
norma ao dever ser, como propõe a corrente doutrinária cujo grande expoente é Hans
Kelsen.
Para Kelsen, direito e Estado se confundem, do ponto de vista da ciência
jurídica. O Estado é o feixe das normas que prescrevem sanções de modo estrutural,
coerente e organizado. Apesar da inestimável contribuição à ciência jurídica, a Teoria Pura
do Direito não será empregada para o estudo da governança da Internet, justamente pela
necessidade de abordagem interdisciplinar mencionada na Introdução, em uníssono com a
primeira lição de Salomão Filho (2001, p. 11)
[...] para o estudioso do Direito, escrever sobre regulação de um desafio transforma-se um dever. É imperioso descobrir fundamentos e sistematizar princípios, transformando a regulação de uma técnica em uma ars (boni aequo) no sentido latino próprio do termo. Isso não implica tornar o raciocínio jurídico estanque a análises e considerações vindas de outras áreas do conhecimento. O método interdisciplinar de análise é imperativo em matéria de ciências sociais.
Uma cautela deve ser usada no recurso a outras disciplinas, para que não se
perca de vista o foco principal da pesquisa. As referências feitas a outros campos do
conhecimento até o momento foram necessárias para a compreensão do objeto de
discussão.
O método interdisciplinar combina as condições do mundo do ser com as
exigências do dever ser. É desejado um fundamento para a governança que não seja
exclusivamente aquele emanado do Estado, mas pela vibrante interação entre os
stakeholders. O reconhecimento de múltiplas fontes de poder remete o estudo ao trabalho
de Michel Foucault (2003, 1999).
63 Uma interessante análise da natureza jurídica da soft law sob a luz do direito internacional realizada por
Dinah Sheldon pode ser encontrada em www.asil.org/shelton.pdf 64 Afinal, os fenômenos da soft law, apesar de se assemelharem ao direito enquanto forças de influência sobre o comportamento, dele se diferem por não resultar dos processos considerados pelo ordenamento jurídico internacional como aptos a criarem normas jurídicas (NASSER, 2005, p. 161).
97
6.3. Foucault e poder
Dentre as vertentes teóricas sobre o poder, destacamos a de Michel
Foucault: o poder é uma dominação, que gera estruturas de desigualdade entre indivíduos.
É uma série de nuances que influenciam a vida cotidiana. Suas fontes são múltiplas.
Foucault identifica uma não sinonímia exclusiva entre Estado e poder.
Em Vigiar e Punir, Foucaut (2003, p. 163) apresenta sua análise dos modos
de exercício do poder. Ele contrapõe duas formas de controle social: a disciplina-bloco,
feita de proibições, bloqueios e clausuras, de hierarquias, encerramentos e a ruptura de
comunicação, e a disciplina-mecanismo, feita de técnicas de vigilância múltiplas e
entrecruzadas, de procedimentos flexíveis, funcionais de controle, de dispositivos que
exercem a vigilância mediante a interiorização pelo indivíduo de sua exposição constante
ao olho do controle.
A título de ilustração desse conceito, apontamos a descrição da crescente
importância dos bancos na sociedade reportada por Baptista (1986, p. 18): o banqueiro é
figura singular entre os comerciantes com grande responsabilidade, pois “são coletores de
impostos, aplicadores da regulamentação cambial, fiscais de tributos (mediante
informações que prestam ao Fisco) e até mesmo órgãos de repressão, quando, por exemplo,
são obrigados a recusar o uso de contas bancárias aos emitentes de cheques sem fundo.
Ademais, “(e)stão ainda os bancos por adquirir novas funções públicas, como se verá no
momento de analisar a prova nas TEIF”
De fato, não apenas os bancos adquiriram funções públicas. As funções
públicas se espalham por atores estratégicos em toda a sociedade tal como na idéia da
microfísica do poder de Foucault. O direito tributário, por exemplo, tem a figura da
substituição que é a imputação da responsabilidade pela obrigação tributária a terceiro que
não praticou o fato gerador, mas tem vinculação com o real contribuinte proporcionando
praticidade no recolhimento e fiscalização. A substituição é mecanismo regulatório que
concentra responsabilidades em atores estratégicos de modo a distribuir funções públicas.
98
No caso da Internet, os provedores de serviço de Internet são potenciais pontos de controle
para o monitoramento e repressão a condutas inadequadas por parte dos usuários65.
O pensamento de Foucault revela necessária uma noção de vigilância e
disciplina, de formas mais sutis, privadas, informais e materiais de coerção, permitindo-se
a inclusão da soft law. James Boyle (1997) enfatiza a adequação da teoria de poder de
Foucault para o reconhecimento das fontes não-estatais de poder que freqüentemente
dependem de meios materiais ou tecnológicos para o alcance de determinados objetivos.
As múltiplas forças regulatórias e o modo como sua influência é dada são contrapostas à
pirâmide normativa assegurada por sanções direcionadas a uma população
geograficamente definida cujo centro de gravidade de suas relações repousa
predominantemente no ordenamento jurídico nacional.
A microfísica do poder de Foucault é harmônica e complementar à noção
das teorias de Keohane e Nye (2000): analisam-se todas as várias formas (e não
necessariamente apenas aquelas institucionalizadas pelo Estado e garantidas através de
sanções jurídicas externas) de controle sobre a vida cotidiana.
Portanto, além da hard law e soft law a análise regulatória deve levar em
consideração os esforços dos stakeholders como um todo, facilitando determinados
comportamentos e reprimindo outros de acordo com o interesse público geral, evitando que
benefícios privados sejam obtidos por aqueles com maior poder. Caso contrário, o poder
observado na moldagem do futuro da Internet será ilegítimo e incompatível com o
resultado da Cúpula Mundial sobre a Sociedade da Informação, que levantou em seus
documentos finais princípios de inclusão, transparência, democracia, entre outros que
reforçam cada vez mais a necessidade de mecanismos legítimos de tomada de decisão
multistakeholder.
Os princípios consagrados pela CMSI revelam um amadurecimento do
processo decisório em questões relacionadas à Internet. Os mecanismos informais e
competitivos de poder devem procurar sua legitimação, ou seja, adquirir autoridade.
65 Para Zittrain (2003) em Internet Points of Control, a grande disponibilidade de pornografia online e de
material infrator de direitos de propriedade intelectual influenciou o aumento de esforços em tornar a Internet mais regulável. Iniciativas regulatórias buscam trazer maior efetividade a esse controle ao direcionar esforços de fiscalização sobre os intermediários: os provedores de serviços de Internet (Internet Service Providers – ISPs) ao invés de ter que se preocupar em fiscalizar um número muito maior de usuários individualizados. .
99
Em O Poder de Controle na Sociedade Anônima, Comparato (1983 p.391)
resgata a discussão dos clássicos sobre a legitimação do poder, sendo importante a
combinação das manifestações benignas para uma verdadeira legitimidade:
A questão da legitimidade é inerente a todo e qualquer fenômeno de poder, assim como a da justiça em relação às normas jurídicas, por mais que o positivismo insista em enxotar uma e outra do campo científico. O poder ilegítimo, embora legal e efetivo, será sempre marcado de bastardia; para sua defesa em momentos de crise, só poderá contar com as suas próprias forças e nunca com a adesão dos comandados. Sem dúvida, a transformação da força em direito é uma tendência insopitável de todo detentor do poder, não por razões de ordem ética, mas essencialmente prática. Le plus fort, escreveu Rousseau, n’est jamais assez fort pour être toujours le maître, s’il ne transforme sa force en droite et l’obéissance en devoir. Mas a simples legalização da força não a legitima, na consciência dos comandados. Eis por que a questão da legitimidade não é suscitada pelos que detêm o poder, mas pelos que se lhe submetem, ou que aspiram a possuí-lo
Localizado o problema relacionado à necessidade de uma coordenação das
forças de controle e poder a fim de alcançar legitimidade em um processo de governança,
cumpre examinar quais são os processos na governança da Internet.
6.4. Governança da Internet
Nos primeiros estágios da CMSI os debates de definição centralizavam-se
na escolha entre uma definição “estreita” (narrow Internet governance) que envolvia
somente funções relacionadas à Internet Corporation for Assigned Names and Numbers -
ICANN tratadas no Capítulo 5 e uma definição “ampla” (broad Internet governance) que
parecia cobrir todo e qualquer tema relacionado a governança de Tecnologias de
Informação e Comunicação. Tanto um extremo quanto outro deixa de ter o foco desejado.
A fase de Tunis resolveu a questão a respeito do escopo da governança da
Internet, ao reconhecer que a governança da Internet inclui mais do que nomes e endereços
da Internet. A governança da Internet também inclui outros temas significativos de
políticas públicas, como, entre outros, recursos centrais, segurança e aspectos de
desenvolvimento e temas pertinentes ao uso da Internet, como temas sociais, econômicos e
técnicos.
100
Com base no Relatório do GTGI, a Segunda Fase da CMSI adotou a
seguinte definição de trabalho para a governança da Internet: “Governança da Internet é o
desenvolvimento e aplicação pelos governos, setor privado e sociedade civil, em seus
papéis respectivos, de princípios, normas, procedimentos de tomada de decisão e
programas comuns que moldam a evolução e uso da Internet” (tradução nossa).
Dos procedimentos de tomada de decisão comum, para o Internet
Governance Project (2004, p.9), existem três principais relacionados à governança: 1)
padronização técnica, 2) alocação e atribuição de recursos e 3) formulação e execução de
políticas e resolução de disputas. Cada um caracteriza diferentes processos e expertise,
diferentes métodos de execução e freqüentemente conduzidos por diferentes instituições.
6.4.1. Definição de padrões tecnológicos
A definição de padrões tecnológicos tem a ver com a forma de como
decisões são tomadas com relação aos protocolos de rede, aplicações de software e padrões
de formato de dados (data format standards) que fazem a Internet funcionar. Organizações
que cuidam dessas funções definem, desenvolvem e alcançam consenso sobre
especificações técnicas, as quais são então publicadas e usadas pela indústria para a
fabricação de equipamentos, desenvolvimento de software e prestação de serviços em
modos que asseguram a compatibilidade técnica e sua inter-operação. As funções de
padronização técnica da Internet foram principalmente realizadas por atores não
governamentais.
Cada vez mais as atividades humanas são facilitadas por Tecnologias de
Informação e Comunicação - TICs. Em tais relações, a arquitetura é basicamente o
hardware e software que possibilita a comunicação. Assim, devemos reconhecer o peso da
regulação pela arquitetura no somatório dos vetores regulatórios de TICs. Aquele que
detém conhecimento e possibilidade de modificar os padrões de comunicação detém
grande poder. Essa percepção sobre a relevância da definição tecnológica foi analisada nos
Capítulos anteriores que revelaram a agenda por trás da definição de padrões, protocolos
101
(X.25, IBM SNA e TCP/IP) e mesmo na construção de sistemas como o DNS, tema que
está mais próximo da alocação de recursos.
Como visto na conclusão do Capítulo 4, a definição legítima de padrões
internacionais não pode ser deixada somente na mão do mercado, pelos seus efeitos que
vão além da dimensão técnica e que podem ser apropriados por interesses particulares.
6.4. 2. Alocação e gerenciamento de recursos
Após a definição dos protocolos TCP/IP, outro grande marco em decisão de
arquitetura foi o sistema de nomes de domínio, o DNS. Da mesma maneira como muitos
dos principais recursos da Internet, o DNS surgiu de baixo para cima (“bottom-up”), ou
seja, sem a coordenação regulatória governamental.
O sistema de gerenciamento de nomes de domínio compõe alocação e
atribuição de recursos, o que é uma fase distinta e posterior à definição de padronização.
Quando a utilização de um recurso global, como o espaço de números IP, espectro de rádio
ou códigos nacionais de números de telefone, deve ser exclusivo, sua utilização deve ser
coordenada ou administrada por uma organização ou outra forma de mecanismo.
A autoridade de designação aloca ou divide o espaço de recursos, atribuindo
partes dele a usuários específicos. A autoridade também desenvolve políticas,
procedimentos e regras para guiar as decisões de alocação e atribuição. Essa função iniciou
a controvérsia sobre governança da Internet na qual disputas relacionadas à atribuição de
nomes top-level domain – TLDs culminaram na criação da ICANN.
Assim, a alocação de recursos se difere de definição de padrões técnicos. A
definição de padrões pode implicar um recurso digital que requer uma alocação em regime
de exclusividade quando implementado (p.ex. os padrões técnicos que definem o protocolo
IP criam um espaço de endereços e o protocolo DNS define o espaço de nomes de
domínios). Mas a definição e o alcance de consenso em um padrão é distinto do processo
subseqüente de alocação e atribuição de recursos.
102
No Capítulo 5, foi visto o debate entre os diversos atores no processo que
culminou na ICANN a discussão estreita sobre a governança da Internet, entendendo que
as decisões tomadas a respeito do gerenciamento de nomes e números está atrelada a
questões como propriedade intelectual, liberdade de expressão, privacidade, entre outros66.
6.4.3. Formulação e execução de políticas e a resolução de disputas
A formação de política inclui também sua execução, monitoramento e
resolução de disputas. Envolve o desenvolvimento de normas, regras e procedimentos que
governam a conduta de pessoas e organizações, contrariamente à estrutura e operação da
tecnologia.
Enquanto por um lado a Internet é um canal de comunicação originalmente
arquitetado de modo a preservar a neutralidade, muitos temas de política surgem como
conseqüência de seu uso por um número crescente de atores nacionais e internacionais
regular diversos temas através da arquitetura.
Apesar de ser argumentado que ao abraçar temas de política o escopo de
governança da Internet poderia ficar demasiadamente amplo, são os elos entre temas de
política e as regras e procedimentos de padronização que produzem os problemas mais
significativos de governança.
Quanto ao papel dos governos, é de se observar que desempenham um papel
de destaque na elaboração de políticas públicas, mas que mesmo assim os demais
stakeholders devem ser envolvidos. Além do argumento de que com mais pontos de vista a
decisão final será mais bem embasada, devemos considerar que hoje a Internet é global e
as nações são territoriais portanto a discussão multilateral que apenas inclui governos pode
não ser suficiente. A Internet é atualmente uma plataforma para comunicação aberta e troca
de informações transfronteiriças. Além disso, um consenso de governos nacionais não é o
melhor arauto para identificar o interesse público global. Em política internacional, existe
66 Ver, por exemplo, Milton Mueller, Ruling the Root.
103
a possibilidade de que os governos nacionais se preocupem mais em proteger seu poder
nacional do que promover o interesse público.
6.5. Segunda Fase da CMSI: Tunis, 2005
O Compromisso de Tunis, declarou que os objetivos acordados podem ser
atingidos através do envolvimento, cooperação e parceria de governos e outras partes
interessadas. A cooperação e solidariedade internacional em todos os níveis são
indispensáveis para que os frutos da Sociedade da Informação beneficiem a todos.
O Relatório do GTGI (2005, p.10) indicou a existência de um vácuo no
contexto das estruturas existentes de governança da Internet, visto que não há um fórum
global multistakeholder para endereçar temas de políticas públicas relacionadas à Internet.
Foi concluído pelo GTGI que haveria mérito em criar um espaço para diálogo entre todas
as partes interessadas.
Nesse sentido, a Agenda de Tunis para a Sociedade da Informação
reconheceu a necessidade de iniciar e reforçar um processo transparente, democrático e
multilateral, com a participação dos stakeholders em seus papéis respectivos. Esse
processo poderia vislumbrar a criação de uma moldura ou mecanismos adequados, e
portanto promovendo a contínua e ativa evolução dos atuais dispositivos para juntar
esforços nesse sentido. Foi solicitado ao Secretário Geral da ONU que convocasse um
novo fórum para o diálogo de política multi-stakeholder, o Internet Governance Forum –
IGF.
Seguem-se os trechos da Agenda de Tunis correspondentes à criação do
Internet Governance Forum:
72. Solicitamos ao Secretário Geral da ONU em um processo aberto e inclusivo, ao segundo trimestre de 2006, a convocar um encontro do novo fórum para o diálogo de política multi-stakeholder - chamado de Internet Governance Forum (IGF). O mandato do Fórum é de:
a) discutir temas de políticas públicas relacionados a elementos chave de governança da Internet para estimular a sustentabilidade, robustez, segurança, estabilidade e desenvolvimento da Internet;
104
b) facilitar o discurso entre órgãos lidando com diferentes políticas públicas internacionais relacionadas à Internet que muitas vezes são interrelacionadas e discutir temas que não se encaixam dentro do escopo de nenhum órgão existente;
c) interface com as organizações intergovernamentais apropriadas e outras instituições com temas sob seu escopo;
d) facilitar a troca de informações e melhores práticas, e nesse sentido fazer uso total de expertise das comunidades acadêmica, científica e técnica;
e) aconselhar todos os stakeholders em propor meios de acelerar a disponibilidade da Internet no mudo em desenvolvimento;
f) fortalecer e aperfeiçoar o engajamento de stakeholders nos mecanismos existentes e/ou futuros de governança da Internet, particularmente aqueles de países em desenvolvimento;
g) identificar temas emergentes, trazê-los à atenção dos órgãos relevantes e público geral e, quando apropriado, fazer recomendações;
h) contribuir para capacitação em governança da Internet em países em desenvolvimento, exigindo das fontes locais o conhecimento e expertise;
i) promover e avaliar, em forma continuada, a incorporação dos princípios CMSI em processos de governança da Internet;
j) discutir, entre outros, temas relacionados a recursos críticos de Internet;
k) ajudar a encontrar soluções aos temas emergentes do uso e mau uso da Internet, de preocupação particular aos usuários do dia a dia;
l) publicar seus procedimentos.
73. O IGF, em sua operação e função, será multilateral, multi-stakeholder, democrático e transparente. Para tal fim, o IGF proposto poderia:
a) aperfeiçoar as existentes estruturas de governança da Internet, com ênfase especial na complementaridade entre todos os stakeholders envolvidos neste processo - governos, entidades empresárias, sociedade civil e organizações inter-governamentais;
b) ter uma estrutura leve e descentralizada que seja sujeita a uma revisão periódica;
c) encontrar-se periodicamente, conforme requerido. Os encontros IGF, em princípio, podem ser realizados em paralelo com principais conferências relevantes das Nações Unidas, entre outras, para usar um suporte logístico.
74. Encorajamos o Secretário Geral da ONU a examinar uma gama de opções para montar o IGF, levando em consideração as competências comprovadas de todos os stakeholders em governança da Internet e a necessidade de assegurar seu total envolvimento;
77. O IGF não terá função de supervisão e não substituirá dispositivos, mecanismos, instituições ou organizações existentes, mas as envolverá e tirará proveito de sua expertise. Será constituído como um processo neutro, não-duplicativo e não-vinculante. Não terá envolvimento em operações técnicas ou do dia a dia da Internet. (tradução nossa)
105
As declarações da CMSI elogiaram os "existentes dispositivos de
governança da Internet", os quais foram descritos como aqueles em que o setor privado
toma a liderança em operações do dia a dia e com inovação e criação de valor nas bordas.
O documento, entretanto, não endossou a ICANN e não a menciona pelo nome, um reflexo
da continuada falta de aceitação de muitos governos.
De todos os resultados da Segunda Fase da CMSI, a criação do IGF merece
destaque como um fórum multistakeholder para dar aconselhamento sobre governança da
Internet, que pode ser usado para o desenvolvimento de princípios de políticas públicas
necessárias para orientação da governança da Internet no futuro.
6.6. Conclusão deste capítulo
O Capítulo 6 buscou apresentar a governança em amplo escopo,
considerando todos os vetores que exercem influência como na microfísica do poder.
Como visto no Capítulo 5, os atores mais articulados ou que tinham maior poder são os
que tomaram as principais decisões na questão de nomes e números, o que gerou grande
descontentamento de diversos stakeholders.
A governança é o melhor meio para legitimar o poder ao promover
colaboração. A interação entre diversos stakeholders e a subscrição de atores
internacionais mais tradicionais como governos em agendas altamente complexas e com
detalhes tecnológicos pode ser facilitada com o uso de mecanismos suaves (soft), de
melhor aceitação, como recomendações não vinculantes.
Na Segunda Fase da CMSI a governança da Internet foi entendida como o
conjunto de ações relacionadas ao gerenciamento de nomes e números, mas
compreendendo também o estabelecimento de padrões tecnológicos e definição de
políticas públicas. É muito importante a devida representação dos interesses globais no
estabelecimento dos padrões técnicos que como analisado possuem impactos sociais,
culturais, políticos e econômicos. O relatório do GTGI mostra que a Internet atraiu atenção
internacional e indica papéis dos stakeholders e propôs a criação de um fórum.
106
A participação de entidades da sociedade civil e do setor privado foi
essencial para despertar a consciência da importância da governança da Internet,
apresentando suas opiniões que influenciaram a tomada de decisões, mesmo sem o status
de sujeitos de direito internacional. Semelhantemente ao papel das organizações não
governamentais no que diz respeito à proteção do meio ambiente (SOARES, 2003, p.59),
os representantes da sociedade civil, do setor privado e mesmo aqueles que se
manifestaram em sua capacidade pessoal, enquanto usuários da Internet, contribuíram para
a conscientização da opinião pública e para o debate na formação do conceito de
governança da Internet.
A soft law apresenta elementos positivos para tratar da governança da
Internet. Em primeiro lugar, é uma abordagem menos formal e assim não exige o
comprometimento oficial dos Estados e, portanto, reduz riscos políticos potenciais. Em
segundo lugar, é flexível o suficiente para facilitar o teste de novas abordagens e ajuste a
rápidos desenvolvimentos no campo de governança da Internet, que é caracterizado por
muitas incertezas. Em terceiro lugar, a soft law fornece uma maior oportunidade para uma
abordagem multistakeholder do que a abordagem internacional restrita a Estados e
organizações internacionais.
Um dos mais importantes elementos da segunda fase da CMSI foi o
comprometimento de criação do IGF que pode contribuir para a colaboração. A criação do
IGF tem muito em comum com a CMSI, sendo multi-stakeholder, não vinculante, criada
pela ONU, e capaz de lidar com um amplo escopo de temas de Internet e política de
tecnologia. No mínimo o IGF parece um método adequado de continuar o trabalho iniciado
pela CMSI.
Tome-se por exemplo a questão do princípio fim-a-fim.
107
7. DA COMPETIÇÃO RUMO À COLABORAÇÃO: O PRINCÍPIO
FIM-A-FIM
Aperfeiçoamento da governança na regulação pela arquitetura através do IGF
Foram apresentados os desenvolvimentos na governança da Internet e como
a comunidade global cada vez mais busca aperfeiçoar a governança estreita da Internet
Corporation for Assigned Names and Numbers – ICANN, mas que além da alocação de
recursos dois outros processos importantes devem ser considerados: a formulação de
políticas públicas e a definição de padrões tecnológicos.
Como a regulação através da arquitetura pode ser exercida na definição de
padrões em favor de interesses particulares, tentativas de dominação das estruturas de
padronização técnica devem ser reprimidas.
Historicamente, na Internet, boa parte da definição de padrões foi realizada
informalmente, como no caso da participação individual de Jon Postel no sistema de nomes
e números ou mesmo através de grupos informais como a Internet Engineering Task Force
– IETF que trabalha através dos Requests for Comments – RFCs. Ainda hoje parte
significativa dos padrões é definida por grupos informais, sendo que os órgãos
internacionais como a UIT ou ISO, apesar de realizar um certo papel, não recebe ainda
grande destaque67.
A dissertação é dedicada ao estudo do processo de governança envolvendo a
definição de padrões tecnológicos, mas o Capítulo 5 foi dedicado à questão de alocação
dos nomes e números para tomar o caso da ICANN como exemplo de críticas de nível de
governança. Críticas semelhantes podem também ser feitas às instituições atualmente
responsáveis pela definição de padrões tecnológicos, independentemente dos seus méritos:
apesar de a IETF ser genericamente conhecida como um ambiente aberto68, colaborativo e
transparente, a complexidade das discussões realizadas nos Requests for Comments acaba
67 A ITU Telecommunications Standardization Sector (ITU-T) vem cada vez mais desempenhando
importante papel na arquitetura das novas redes baseadas em tecnologias de Next Generation Networking. 68 Berners-Lee (2000, p. 47), descreve a IETF como um fórum internacional aberto de pessoas que se
correspondiam principalmente por e-mails, mas que também se encontravam fisicamente três vezes por ano e que qualquer um com interesse em qualquer grupo de trabalho pode contribuir.
108
gerando uma meritocracia e dificuldade para que os demais stakeholders compreendam as
dimensões políticas, jurídicas e sociais das decisões tomadas.
Este Capítulo vai se concentrar na coordenação sobre definição de padrões,
e o papel que pode ser desempenhado pelo IGF, inclusive como uma plataforma para que a
IETF69 aumente seu nível de governança internacional.
7.1. Internet Engineering Task Force – IETF
A IETF se descreve no RFC 3160 (IETF, 2001) como um grupo de pessoas
que se organizaram espontaneamente com interesse de contribuir para a engenharia e
evolução de tecnologias de Internet. É o principal grupo engajado no desenvolvimento de
novas especificações de padrões Internet. O IETF existe enquanto um grupo informal, mas
não é uma entidade jurídica e não possui diretoria, conselho de administração, membros ou
deveres.
O processo de padronização da Internet é, de acordo com o RFC 2026 uma
atividade da Internet Society organizada e gerenciada em nome da comunidade da Internet
pela Internet Architecture Board – IAB e o Internet Engineering Steering Group – IESG.
A IETF começou a realizar reuniões públicas quatro vezes por ano a partir
de janeiro de 1986. Em seu quinto encontro, no começo de 1987, 50 pessoas apareceram e
espontaneamente se organizaram em grupos de trabalho. O canal para atividades
relacionados à Internet criado pela IETF envolvia cientistas de computação e engenheiros
de setores público e privado. A presença chegou a 200 em 1989 e em 1992 mais de 650
69 Apesar de centralizarmos as discussões sobre a IETF, é necessário mencionar a existência de outros grupos
onde decisões referentes à padronização técnica são tomadas, como o World Wide Web Consortium – W3C. Ele não desenvolve padrões de Internet em si, mas desenvolve importantes padrões e tecnologias relacionados a estruturas de dados e formatos que são comumente usados na Internet. Tais aplicações são localizadas no topo dos protocolos Internet,,assim como outras aplicações produzidas por empresas privadas ou pequenas organizações. Algumas vezes os padrões da W3C são voltados a facilitar formas de governança, como no caso da Platform for Internet Content Selection (PICS), projetada para permitir que usuários finais filtrassem conteúdo de acordo com critérios previamente estabelecidos. O trabalho da W3C sobre padrões para a Internet para facilitar acesso a pessoas com deficiências também é um papel de governança.
109
participantes mostravam a vibrante atividade deste grupo informal e aberto (MUELLER,
2004, p.91).
Diferentemente das comunidades de padronização que representavam os
grandes fornecedores e empresas de telefonia, a jovem IETF considerava a
interoperabilidade e poder ao usuário final como as normas básicas. Os próprios padrões
não eram proprietários. Toda a documentação era aberta, sem reserva de direitos autorais e
disponível online. Essa comunidade acreditava que o valor das idéias técnicas deve ser
mensurado não por votos mas sim por provas empíricas de efetividade ou, na linguagem
dos engenheiros, pelo código funcional (running code).
A IETF é um grupo criado e governado de forma independente de outros
grupos tradicionais como o International Standards Organization (ISO) ou de Estados-
Nação. A IETF é aberto à candidatura para ingresso como membro e é defensora de
decisões tomadas pelo consenso. A IETF pode ser entendida como um microssistema de
governança, no qual a hierarquia é estabelecida pelo respeito à sabedoria e conhecimento
de seus membros: o falecido Jon Postel praticamente controlava sozinho o sistema de
números de endereços IP.
Os valores de abertura da IETF permitem que qualquer pessoa possa
apresentar sua proposta de um novo padrão através de um Request for Comments (RFC).
Apesar de valiosas, as formas de discussão da IETF acabavam invariavelmente requerendo
precioso tempo em debates quase filosóficos. O então pesquisador do Cern – Laboratório
Europeu de Física de Partículas, Tim Berners-Lee (2000, p.165), decidido a desenvolver
um sistema de distribuição de informações em hipertexto (o que mais tarde constituiria a
World Wide Web) precisava de um meio alternativo de implementar suas idéias.
Segundo relato de Berners-Lee, um processo aberto como o do IETF era
importante, porém deveria ser mais rápido e mais eficiente, além de permitir indivíduos
representando empresas e organizações alcançaram um entendimento comum. Ele queria
que o World Wide Web Consortium funcionasse em um processo aberto como o da IETF,
mas que fosse mais rápido e mais eficiente, pois a velocidade era necessária70.
Como a IETF não possui personalidade jurídica e não é um órgão oficial de
70 De acordo com entendimentos pessoais mantidos em 12.02.2006 em Malta, no seminário “Internet Governance – The Way Forward: From Tunis via Malta to Athens” com Avri Doria, ativa participante do IETF e presidente da Internet Research Task Force’s Routing Research group, a lentidão mencionada por Berners-Lee foi enfrentada nas mais recentes reformas da IETF.
110
padronização, Berners-Lee entendeu que não era necessário submeter suas propostas para a
criação da World Wide Web através do procedimento de RFCs da IETF, que poderia não
ser suficientemente dinâmico. Assim, pouco a pouco foi sendo criado um outro grupo, o
World Wide Web Consortium. De modo semelhante, aqueles que hoje não estão
interessados em submeter suas propostas de padronização através de RFCs da IETF podem
se organizar de outro modo para distribuir suas tecnologias.
Para Mueller (2005), esse processo de escolha da melhor instância para
definição dos padrões (ou forum-shopping) é natural, principalmente conforme cada vez
mais diversas são as TICs e portanto múltiplos serão os órgãos de padronização. De modo
geral, isso criaria um efeito positivo, pois, qualquer tentativa de centralizar e tornar certas
atividades de padronização obrigatórias em um determinado grupo, cria a possibilidade de
sua captura por governos e empresas e usados para fins particulares, muitas vezes
prejudicando a inovação e competição.
A liberdade e flexibilidade na padronização, portanto, tem pontos vantajosos
ao deixar o mercado livre de padrões vinculantes para novas criações. Os padrões que não
são interessantes eventualmente acabariam sendo rejeitados.
Entretanto, parece que não é isso o que está acontecendo, principalmente
quanto ao princípio fim-a-fim no caso do serviço de Internet banda larga e das futuras
redes a utilizar o Next Generation Networking.
7.2. Retomando a análise do princípio fim-a-fim
Sendo a definição de padrões um dos elementos da governança da Internet e
consideradas as observações do Capítulo 3, que indicou argumentos em defesa da
importância do princípio fim-a-fim na arquitetura da Internet atual, para a inovação,
abertura e liberdade de expressão, e um ambiente que estimule a competição, retoma-se
sua análise como um caso em que tais decisões devem ser tomadas devidamente.
A lição que poderia ser tirada do Capítulo 3 é que a Internet, ao longo de
seus anos, passou por diversas mudanças e dilemas e tem não apenas sobrevivido, como
111
inclusive evoluído e expandido. Mas o que parece ser apenas uma decisão técnica com
impactos mínimos é, para diversos juristas71, um ponto decisivo que terá o maior impacto
de toda a história das Tecnologias de Informação e Comunicação - TICs. Será uma
mudança de controle inédito.
Para Lessig (2001, p. 35), o princípio fim-a-fim é o princípio de maior
importância para o sucesso da Internet. Ele já estava implícito na área de comunicação e
computação, mas foi pela primeira vez estruturalmente formalizado por Jerome Saltzer,
David Reed e David Clark em 1981, no documento "End to End Arguments in System
Design” que tratava das funções dentro de uma rede (SALTZER, REED, CLARK, 1981).
De acordo com o princípio fim-a-fim, os próprios protocolos de
comunicação por onde a informação flui devem ser mantidos o mais simples possível. As
funções necessárias por aplicações devem ser executadas nos fins. Assim, a complexidade
e inteligência da rede são mantidas longe da rede em si, proporcionando simplicidade e
flexibilidade. A rede é simples e as aplicações, inteligentes.
Uma conseqüência desse projeto é um princípio de neutralidade, de não-
discriminação entre aplicações. Os recursos físicos da rede destinados ao transporte dos
pacotes de dados devem fornecer um amplo escopo de recursos que não seja destinado ou
otimizado para uma aplicação específica, diferentemente do cenário atual em que atores
interessados em remover a neutralidade da Internet buscam adquirir mais poder de
controle, tornando a Internet cada vez um ambiente menos livre e reduzindo o potencial de
competitividade e inovação72.
71 Entre os estudos centralizando a importância do princípio fim-a-fim no futuro da Internet, é possível
apontar para a palestra de Lawrence Lessig, The Architecture of Innovation, argumentando que o princípio fim-a-fim traz um commons criativo para a Internet.. A Stanford Law School promoveu em 01.12.2000 um debate a respeito dos valores em jogo relacionados ao princípio fim-a-fim na conferência The Policy Implications of End-to-End. Paul A. David, em The Beginnings and Prospective Ending of ‘End-to-End’, defende a manutenção do princípio fim-a-fim argumentando que sua abertura é um bem público cuja perda potencial à sociedade deve ser calculada ao se pensar em adicionar medidas de segurança na rede. Para David D. Clark e Marjory S. Blumenthal, em Rethinking the Design of the Internet: The End to End Arguments vs. the Brave New World, o princípio fim-a-fim é importante porém está ameaçado pelo risco de segurança nas transações realizadas pela Internet. No Written Ex Parte preparado por Mark A. Lemley e Lawrence Lessig, In re Application for Consent to the Transfer of Control of Licenses MediaOne Group, Inc. to AT&T Corp., (F.C.C. 1999),o crescimento e a inovação na Internet dependem fundamentalmente da arquitetura fim-a-fim. Inúmeros outros estudos jurídicos foram realizados a respeito do impacto regulatório do princípio fim-a-fim.
72 Dentre diversos teóricos juristas que tratam desse problema, vale destacar Lessig (1999, 2005, 2006), Zittrain (2003, 2006), e, confirmando os temores futurólogos de Zittrain e Lessig, o relato do que já acontece no Canadá por Geist (2005). Zittrain e Lessig também já indicavam exemplos isolados do aumento de controle na rede. Assim como os juristas vêm tratando de assuntos cada vez mais técnicos, os
112
O princípio fim-a-fim permite um maior ambiente competitivo ao conectar
uma ampla variedade de aplicações na rede. Ademais, não existe um ator ou grupo de
atores particulares que seja beneficiado estrategicamente para influenciar o ambiente da
rede a seu favor, o que também contribui para a competitividade e inovação.
A decisão de manter o centro da rede simples e barato acabou se mostrando
altamente valiosa. O princípio fim-a-fim elimina a dependência da criatividade de um
pequeno grupo de inovadores que trabalhavam para as entidades que tinham relação com o
desenvolvimento da rede. A inovação era oferecida a qualquer indivíduo conectado que
quisesse desenvolver e implementar uma nova forma de sua utilização. Com o princípio da
neutralidade, a Internet criou um ambiente de competição no qual os inovadores sabiam
que suas invenções seriam usadas se fossem úteis. Ao manter o custo de inovação baixo,
ela encorajava uma extraordinária quantidade de novas aplicações em muitos diferentes
contextos. Para dar alguns exemplos, a telefonia Internet de voz sobre IP (Voice over IP –
VoIP), a transferência de arquivos em redes peer-to-peer73 e mesmo o comércio eletrônico
são aplicações muito além do que estava na expectativa inicial dos líderes encarregados da
criação da Internet e mesmo daqueles que, mais tarde, criaram a World Wide Web.
Conforme foi visto no Capítulo 3 , mesmo o e-mail, que foi a primeira grande aplicação de
relevância da Internet, era um subproduto não-intencional que surgiu espontaneamente na
rede.
No modelo em que poucas empresas controlam toda a rede, a inovação pode
ser prejudicada se o controle for usado para proibir todos os usos que não são condizentes
com os interesses dessas empresas.
Conforme visto no Capítulo 3, a arquitetura da Internet é dinâmica. Assim,
é possível que aconteça uma mudança de seus protocolos fundamentais, modificando o
futuro da rede significativamente. A arquitetura fim-a-fim é a origem do sucesso do
crescimento da Internet, mas devemos reconhecer que as arquiteturas centralizadas ou
verticalizadas trazem vantagens econômicas para os que as implementam.
cientistas de computação também vêm apresentando estudos alertando para os problemas jurídicos que podem surgir com a mudança de paradigma tecnológico. Dentre eles, recomenda-se a leitura de Clark e Blumenthal (2001).
73 Uma rede peer-to-peer é uma rede que depende do poder de computação e largura de banda dos próprios participantes da rede ao invés de depender de um número relativamente baixo de servidores. O compartilhamento de arquivos contendo áudio, vídeo ou qualquer outro dado é uma prática comum, assim como a transmissão de dados de telefonia. Uma rede puramente peer-to-peer não tem a noção de clientes e servidores pois seus nódulos funcionam tanto como clientes e servidores simultaneamente na rede.
113
Essas redes verticalizadas permitem um controle de cada passo dos serviços
oferecidos, incluindo áreas previamente separadas da Internet como a televisão e a
telefonia fixa e móvel. Tais evoluções poderiam se tornar uma ameaça a certos tipos de
aplicações e usos da rede que competem com os outros serviços oferecidos pelo grupo
econômico que fornece o acesso à Internet.
Um exemplo dessa ameaça é a prática de algumas empresas de telefonia que
fornecem serviços de acesso de banda larga à Internet em bloquear ou prejudicar o tráfego
de dados relacionados ao Voice over IP - VoIP. Para elas, o uso de uma aplicação VoIP
significaria uma perda de receitas que seria obtida com tarifas de chamadas de longa
distância e assim, em seus serviços de acesso à Internet, utilizam mecanismos que
diferenciam os pacotes de dados relacionados ao tráfego de VoIP, prejudicando-o.
7.3. As possibilidades de redes inteligentes
Para o estudo “End to End Arguments in System Design”, a segurança
utilizando criptografia é um dos exemplos de função que, se colocada em um nível mais
baixo do sistema (ou seja, dentro da rede e não em seus fins) pode gerar em redundância ou
agregar pouco valor. Deve ser ressaltado que o estudo de Saltzer, Reed e Clark é de 1981,
época em que os paradigmas tecnológicos eram muito diferentes.
As teorias que defendem o princípio fim-a-fim devem ser complementadas
pelo RFC 3724 “The Rise of the Middle and the Future of End-to-End: Reflections on the
Evolution of the Internet Architecture” (IETF, 2004) editado por James Kempf e Rob
Austein.
O RFC 3724 mostra tendências opostas ao princípio fim-a-fim, que
continua a fornecer uma base sólida para o trabalho da Internet Engineering Task Force -
IETF mas cujos parâmetros indicados no RFC 1958 cada vez mais são questionados em
vários níveis técnicos que não serão tratados nesta dissertação74.
74 Para detalhes, recomenda-se consultar a íntegra do RFC 3724,
114
Entre as tendências de mudança do princípio fim-a-fim o RFC 3724 lista (i)
a falta de confiança entre usuários e a demanda para que os operadores de rede
implementem mecanismos de inteligência na rede para contribuir a alcançar um ambiente
de maior segurança; (ii) novos modelos de serviço que dependem de uma eficiente
transmissão de dados para que sejam úteis, como a transmissão de voz. Diferentemente de
um web site ou uma mensagem de e-mail, que pode demorar tempo para carregar devido a
uma instabilidade da rede, a transmissão de voz deve ter uma taxa mínima de entrega de
dados, garantida por um sistema de inteligência na rede de Qualidade de Serviço (Quality
of Service – QoS); (iii) interesses de provedores de acesso de Internet banda larga, que
podem ganhar um diferencial no mercado ao negociar com determinados prestadores de
serviços uma taxa de transferência mais rápida para suas aplicações, dando preferência no
tráfego de seus dados em detrimento ao tráfego de outras informações, contrariamente ao
princípio de neutralidade.
Os sistemas designados para determinar o conteúdo e origem de pacotes e
realizar discriminação entre eles, que podem ser inevitáveis dadas as preocupações de
segurança e o crescimento do comércio eletrônico fazem com que a rede fique menos
neutra do que o modelo fim-a-fim75.
7.4. Papel dos provedores de serviço (ISPs) na mudança de controle
Os provedores de serviço de Internet (Internet service providers – ISPs)
também têm sido considerados peças estratégicas que facilitam a efetivação da lei. De
acordo com Michael Geist (2005), os legisladores querem que os ISPs os ajudem com
investigações em crimes eletrônicos, os pais querem que eles filtrem conteúdo inadequado,
e os detentores de direitos autorais querem que eles acabem com as infrações. Jonathan
Zittrain (2003) também identifica movimento semelhante no estado da Pennsylvania, onde
leis locais obrigam os ISPs a bloquear comunicações em base a certos pontos identificados
como perniciosos.
75 Vide trabalho de Hans Kruse, William Yurcik e Lawrence Lessig, The InterNAT: Policy Implications of
the Internet Architecture Debate
115
Apesar da busca em fazer com que os ISPs sejam os pontos estratégicos
responsáveis pelas condutas realizadas pela Internet, de forma geral os provedores de
serviços têm tido um resultado positivo em manter o princípio de neutralidade da rede.
O princípio da neutralidade permite que os ISPs argumentem que apenas
transportam pedaços de dados sem realizar qualquer discriminação, preferência ou
avaliação sobre o conteúdo. Portanto os provedores de serviços de Internet ficam imunes
de responsabilidade pelos eventuais danos gerados pelos dados que trafegaram através de
seus sistemas76, da mesma forma como uma operadora de telefonia não pode ser
responsabilizada por eventual injúria ocorrida durante uma conversa telefônica
transportada por seus sistemas.
Para os usuários de Internet, o princípio de neutralidade de rede significa
que uma ampla gama de escolha em mercadorias, serviços e conteúdo está disponível
independentemente do ISP usado.
Apesar dos ISPs competirem em preço, serviço, velocidade e, em alguns
casos, oferecendo conteúdo restrito a assinantes, eles não têm diferenciado o conteúdo ou
aplicações que podem ser acessadas. A experiência da Internet é basicamente a mesma
para o usuário independentemente do ISP utilizado. Michael Geist relata, porém, a
tendência recente de ISPs violarem o princípio da neutralidade, usando técnicas para
priorizar seu próprio tráfego em detrimento dos competidores.
No caso de telefonia por Internet, as operadoras de telecomunicações
tradicionais são incumbents e os inventores de programas de Voice over IP - VoIP são
disruptors.
Em alguns países, houve bloqueio de serviços de VoIP para proteger o
mercado da operadora de telecomunicações. Presentemente, a VoIP está sendo considerado
uma aplicação revolucionária, que não apenas fará a demanda por banda larga explodir
mas também tornará obsoleto seu competidor, o serviço de telefonia. No Brasil, a Telemar
proibiu contratualmente os usuários de seu serviço de Internet banda larga Velox a
contratar serviços de VoIP (SANTOS, 2005). Na Europa, o mesmo tem ocorrido e a
Vodafone na Alemanha tratou o programa Skype como conteúdo inapropriado.
76 Para analise detalhada da responsabilidade dos provedores de serviços de Internet no Brasil, vide obra de
Marcel Leonardi.
116
Os ISPs da Europa também estão sendo pressionados para bloquear acesso a
sistemas peer-to-peer como o BitTorrent77, que são usados para distribuir arquivos tanto
autorizados como não-autorizados sob o ponto de vista do direito autoral. A Motion
Picture Association e a International Federation of the Phonographic Industry estão
propondo78 que os ISPs da Europa implementem tecnologia de filtragem para bloquear
serviços e web sites que as associações acreditam ser substancialmente dedicados ao
compartilhamento ilegal de arquivos e serviços de download.
No Canadá, Geist (2005) relata que o ISP de banda larga por cabo Shaw
Communications oferece um serviço VoIP premium que utiliza tecnologias para diferenciar
o tráfego e priorizar a transmissão de dados referentes ao seu serviço de telefonia pela
Internet por uma taxa mensal. O impacto para outros provedores de serviços de VoIP é que
sua velocidade, comparada à do serviço da Shaw, ficará em menor velocidade e portanto
com uma dificuldade em competição. Ainda no Canadá, Geist relata que houve
especulação que a Rogers, ISP de banda larga por cabo, estava bloqueando acesso ao
BitTorrent bem como determinados serviços de música do iTunes. A Rogers inicialmente
negou as acusações, mas hoje admite que usa "traffic shaping" para priorizar algumas
atividades online. Como resultado, as atividades que a Rogers entende como de menor
prioridade podem deixar de funcionar efetivamente.
O bloqueio de web sites, serviços e algumas aplicações pode não ser o
limite. Alguns ISPs vêem o potencial para aumentar sua receita ao cobrar de web sites ou
serviços um valor para um serviço de prioridade aos clientes. Nos Estados Unidos da
América, a BellSouth causou grande alvoroço ao anunciar (KRIM, 2005) que haveria um
potencial para cobrar que algumas empresas poderiam pagar para ter acesso privilegiado,
de modo que o Yahoo! poderia pagar para ter acesso mais rápido que o Google.
Lessig (2005) relata que em março de 2005, o primeiro caso nos Estados
Unidos da América de um ISP de banda larga que violou o princípio de neutralidade de
rede foi encerrado com multa aplicada pelo Federal Communications Commission – FCC.
Madison River Communications, uma ISP norte-americana de banda larga, tentou bloquear
o acesso de seus clientes ao serviço de VoIP de uma concorrente, a Vonage. A Madison
77Bittorrent é o nome de uma aplicação que utiliza um protocolo de distribuição de arquivos em rede peer to
peer, utilizada para fazer uma ampla distribuição de grandes arquivos. Mais detalhes em: <http://en.wikipedia.org/wiki/Bittorrent>.
78Vide no web site do European Digital Rights, autor? ISP Self-Regulation Proposal Entertainment Industry,
117
River foi multada por infração de princípios de competição quando a Vonage mostrou ao
FCC que ela estava bloqueando acesso a portas críticas de comunicação.
O princípio fim-a-fim encoraja a inovação conforme novos concorrentes
apresentam novos modelos de negócio, afirmou o presidente do Federal Communications
Commission, Michael Powell (FCC, 2005). Para ele, a indústria deve aderir a certas
normas de proteção ao consumidor para que a Internet continue sendo uma plataforma para
inovação.
Enquanto a decisão de Powell contribui para a preservação do ambiente de
inovação na Internet ao impedir técnicas como bloqueio de portas de comunicação, outras
formas mais sutis de competição pelo controle da Internet, usando a regulação pela
arquitetura ainda não contam com uma segurança jurídica adequada.
Diante de ameaças de invasões e ataques à Internet que muitos especialistas
estão prevendo, mudanças tecnológicas estão sendo preparadas que podem afetar o
princípio fim-a-fim. Existem algumas idéias mudando a forma como os roteadores na
Internet funcionam, tentando deixá-los mais espertos de modo a ter discernimento acerca
dos dados por eles encaminhados. Isso vai contra o princípio fim-a-fim que muitos juristas
argumentam ser uma força em prol da liberdade.
7.5. O debate sobre o princípio fim-a-fim na CMSI
Essas discussões foram levantadas no contexto da CMSI. Mas o GTGI em
vários documentos defendeu a necessidade de manutenção do princípio fim-a-fim. Vale
destacar o Draft WGIG issue paper on Network and Information Society (WGIG, 2005c),
que fala do princípio da transparência79:
Outro importante princípio de projeto sendo questionado tem relação com a transparência. Transparência, nesse contexto, significa que a única tarefa para a rede é o transporte entre dois nódulos remotos ou peers. A rede processa pacotes para assegurar a otimização de transporte e robustez enquanto deixa os níveis de informação e aplicação intocados. Isso é uma importante presunção que permitiu muitas aplicações inovadoras fim-a-fim serem criadas sem
79Que, para os propósitos da dissertação, deve ser equiparado ao princípio da neutralidade.
118
que os desenvolvedores ficassem muito preocupados com a complexidade da rede subjacente.
A crescente preocupação atual com segurança induz usuários e operadores de rede a distinguir entre o tráfego bom e ruim com novos aparelhos que filtram o tráfego hostil (firewalls). Estas arquiteturas vão contra a total transparência da rede. Tais aparelhos são freqüentemente configurados como filtros, sem inteligência ou a capacidade de adaptação, oferecendo alguns aspectos de segurança mas deixando muitos outros sem serem resolvidos. Também a respeito deste ponto a literatura recente aponta para uma imperfeição de certas arquiteturas que abordam a segurança de uma forma maximalista sem flexibilidade e violando características essenciais de design da Internet.
Outros desenvolvimentos, não necessariamente relacionados a segurança, podem levar a uma crescente inteligência dentro da rede. Então, a Internet de amanhã pode desenvolver um equilíbrio entre a transparência total e algum tipo de processo embarcado dentro da rede
O Background Report, (WGIG, 2005b) no ponto 24, nota o princípio fim-a-
fim como relacionado à neutralidade da Internet, principalmente relacionada com o
transporte eficiente de pacotes, permite sua inteligência residir principalmente nos fins das
redes através de aplicações em computadores, servidores, telefones celulares e outros
aparelhos. Isso permitiu o desenvolvimento de um amplo escopo de novas TICs nos fins e
transforma a Internet em uma importante ferramenta dentro do mais amplo contexto de
desenvolvimento social e econômico.
Ele ainda complementa afirmando que esse é um importante elemento em
qualquer consideração de disposições sobre governança da Internet. Qualquer proposta
para mudança deveria enfrentar a questão sobre se tais elementos devem ser afetados de
uma maneira ou outra, pois importantes para o funcionamento da Internet.
O GTGI ainda notou, através de respostas ao seu Questionnaire (WGIG,
2005d), que o Fórum poderia também promover o debate público em temas de relevância e
a adoção de princípios comumente acordados como o da transparência. Vale também
observar que o GTGI elaborou um Draft WGIG Paper on Technical Standards (WGIG,
2005e) que reconhece a importância do padrão que vai além da dimensão técnica.
Entre as vozes de suporte à manutenção do princípio fim-a-fim, está o
renomado Oxford Internet Institute (DUTTON, PELTU, 2005), que diz que a
interoperabilidade fim-a-fim implica em um design de Internet que tenha uma transferência
irrestrita de pacotes de dados de remetente a destinatário. E que seja independente de
usuário, conteúdo, aplicação ou tecnologia. Para fins de governança, isso implica na
119
proteção do princípio fim-a-fim globalmente. E evitar barreiras técnicas ou regulatórias de
interoperabilidade. Mais, o princípio fim-a-fim deve ser priorizado na governança
internacional da Internet, ao mesmo tempo em que direitos e responsabilidades nacionais
são reconhecidos.
Alguns governos, como o do Reino Unido, demonstraram preocupação com
o princípio fim-a-fim e também o relatório da União Européia (EU, 2005) reafirma seu
comprometimento com princípios de arquitetura da Internet, incluindo a
interoperabilidade, abertura e o princípio fim-a-fim.
Em resposta ao Relatório do GTGI, os representantes da sociedade civil
entendem (WSIS CIVIL SOCIETY INTERNET GOVERNANCE CAUCUS, 2005) que é
importante preservar a independência das camadas de rede, de modo que os provedores de
conectividade não determinem qual conteúdo pode ser transmitido. Os princípios fim-a-fim
devem ser preservados e reforçados contra toda tentativa de introdução de controle na
Internet.
Já a Internet Society – ISOC (INTERNET SOCIETY, 2005) acredita que o
objetivo da Governança da Internet deve ser de assegurar que a Internet continue a fornecer
aos usuários individuais o máximo possível de escolhas com a maior flexibilidade possível
enquanto se preserva a natureza fim-a-fim da rede. Para o ISOC, desde o começo da
Internet a quantidade de escolha e flexibilidade continuou a crescer.
Apesar de não ser uma resposta ao questionamento formulado pelo GTGI, a
IETF anteriormente já havia tratado do tema no RFC 3724 mencionado no Capítulo 3. O
documento reconhece que o princípio fim-a-fim continua a orientar o desenvolvimento
técnico de padrões de Internet e permanece hoje tão importante como no passado. O
princípio fim-a-fim é originado de um argumento focado em implementação de funções
nos fins de um sistema de comunicações que acabou se desdobrando em efeitos
secundários tão importantes (se não mais) do que o próprio princípio. A escolha na mão do
usuário final e seu empowerment, a integridade do serviço, o suporte à confiança e bom
comportamento na rede são alguns exemplos de conseqüências do princípio fim-a-fim.
Ainda para o RFC 3724, reconhecer tais propriedades em qualquer mudança
proposta para a Internet é mais importante do que nunca, conforme aumentam as pressões
para adicionar inteligência na rede através de novos serviços. Assim, qualquer proposta
120
para acrescentar serviços na rede deve levar em conta os princípios mencionados antes de
prosseguir (IETF, 2004, p. 10).
Por outro lado, existem stakeholders que defendem que o princípio fim-a-
fim não é essencial. Para Patrice Lyons, do Corporation for National Research Initiatives –
CNRI (LYONS, 2004), o princípio fim-a-fim tem sido entendido essencial para a
compreensão da Internet pelo ambiente de onde a Internet originalmente evoluiu, mas não
foi essencial nos últimos anos. Argumentar hoje que os únicos elementos de inteligência no
ambiente Internet devem ser localizados em suas pontas é ignorar a evolução do software e
outras tecnologias.
Para novas aplicações, manter controle de informações que trafegam dentro
da rede pode hoje ser desejável para um aumento de eficiência e aumento de performance.
Adicionalmente, esforços de pesquisa podem usar métodos inovadores para aumentar a
segurança de comunicações, desenvolver novas formas de estruturar dados, criar e
empregar repositórios metadata dinâmicos ou autenticação em tempo real nas informações.
A tecnologia para permitir o funcionamento desses serviços pode ser de uma
natureza mais dinâmica que a prática inicial de se entender os caminhos de comunicação
como meros mecanismos de transporte e distribuição.
Diante da possibilidade técnica de uma empresa responsável por um
determinado recurso dentro da rede de implementar inteligência de modo a distinguir os
pacotes e barrar a transmissão daqueles que sabidamente são relacionados a atividades
infratoras ou criminosas, sua abstenção de fazê-lo implicaria em responsabilidade civil?
Para o CNRI, ao invés de engessar a Internet em um determinado momento
histórico com uma definição que não antecipa a integração de certas tecnologias avançadas
e em rápida evolução, uma melhor abordagem seria a ampliação da definição e reconhecer
a necessidade de flexibilidade para o futuro.
Assim entende-se que a rede inteligente teria a vantagem de permitir o
Quality of Service e controle com finalidade positiva, evitando abusos. Como visto na
primeira parte, as tecnologias trazem freqüentemente aspectos positivos e negativos, sendo
necessário analisar e então verificar o que vale mais a pena. Essa decisão deve ser feita de
forma multistakeholder pois o sistema Internet é compartilhado por todos.
121
7.6. Legitimação na tomada de decisões
Como exposto, não há consenso claro entre os stakeholders acerca dos
méritos do princípio de arquitetura fim-a-fim, que pode ser preservada ou modificada. Para
as finalidades da dissertação, a decisão final não importa. Independente do que for
decidido, o que se identifica é a inexistência de um mecanismo institucionalizado para a
discussão e tomada de decisões.
Até agora, um grupo informal como a IETF, após debate, apóia ou rejeita
um determinado modelo de arquitetura, e tal decisão afeta todos os usuários das
tecnologias resultantes. Outros grupos podem igualmente se articular em outros modelos,
como, por exemplo, o recente Trusted Computing Group, buscando dominar o mercado de
tecnologia com produtos que refletem seus interesses. De acordo com informações de seu
web site (TRUSTED COMPUTING GROUP, 2006), trata-se de uma organização sem fins
lucrativos que conta com líderes globais da indústria de tecnologia e foi formada para
desenvolver, definir e promover padrões abertos para hardware que permita a trusted
computing e tecnologias seguras sem comprometer integridade funcional, privacidade ou
direitos individuais.
A padronização de arquitetura da Internet é cada vez mais uma arena de
competição80. Como bem observado no RFC 3724, tais contendas serão refletidas na
arquitetura futura da Internet. Algumas dessas competições não poderão ser resolvidas em
nível técnico, por implicar em aspectos sociais e jurídicos que a IETF não tem poderes para
tratar.
7.7. Conclusão deste capítulo
80Vide trabalho dos cientistas David Clark, Karen Sollins, John Wroclawski e Robert Braden, em Tussle in
Cyberspace: Defining Tomorrow’s Internet
122
Interesses e valores atuais são refletidos no princípio fim-a-fim que pode
implicar em maior inovação. A inserção de inteligência na rede porém pode trazer outros
benefícios. É necessário decidir como tomar essa decisão, o que deve ser feito dentro de
níveis adequados de governança.
Apesar de todos os méritos da IETF, sua forma de deliberação ainda está
atrelada a uma fase anterior da Internet em que a comunidade científica decidia sozinha o
que seria mais adequado para o futuro da rede dentro de seu sistema de meritocracia. Para
que hoje esse processo seja harmônico com os interesses comerciais e preocupações de
segurança da rede, é necessária sua institucionalização dentro da moldura do IGF.
Decisões somente podem ser livremente tomadas quando existe
transparência na divulgação de informações a respeito das potenciais conseqüências que
elas podem trazer. Conforme o mandato do IGF, os debates podem aproveitar a expertise
das comunidades acadêmica, científica e técnica. A partir dos levantamentos, o IGF poderá
elaborar suas Recomendações não vinculantes dando preferência a determinados padrões
que entende mais adequados aos princípios levantados pelo processo da CMSI.
123
8. CONCLUSÕES FINAIS
O crescimento da Internet despertou uma discussão acerca de sua
governança. As primeiras Partes da dissertação foram dedicadas a relatar como a Internet
foi inicialmente palco de relações que, apesar de sua riqueza social, não produziram
demanda significativa por uma manifestação jurídica intensa. Em seus primórdios, a
Internet pulsava valores de auto-regulação, a qual, combinada com um sentimento de
ausência de poder coercitivo e à anonímia proporcionada pela tecnologia, contribuiu para a
difusão da crença de que seria impossível o controle dos governos tradicionais.
O amadurecimento dessa visão revelou que, ao contrário, adicionalmente à
regulação diretamente imposta pela norma jurídica, uma técnica de controle prévio poderia
ser usada com efeitos normativos: a regulação pela arquitetura.
Historicamente, no desenvolvimento da Internet, diversas partes disputaram
poder buscando impor padrões tecnológicos que produzissem efeitos favoráveis aos seus
interesses particulares. Conforme a Internet se expandia, aumentava o potencial de
benefícios a serem obtidos com esse controle. Essa competição ficou cada vez mais intensa
e, durante o processo da Cúpula Mundial sobre a Sociedade da Informação, foi
reconhecido que as decisões relacionadas ao futuro da Internet devem ser tomadas de
forma que envolva todas as partes interessadas (multistakeholder), com transparência,
democracia, responsabilidade, igualdade e legitimidade, caracterizando um alto nível de
governança. A competição deveria dar lugar a uma colaboração, para o benefício comum.
Ao examinar a Internet, foi reconhecido que ela é dinâmica e permanece em
evolução. Seu futuro pode ser modificado através da regulação pela arquitetura. Assim, a
Internet pode ter um futuro positivo aos valores de abertura, liberdade, estímulo à
criatividade e liberdade de expressão ou então se transformar em uma mídia menos
interativa, impondo um modelo de segurança, divisão geográfica ou uma comunicação
mais unilateral e com maior controle à liberdade de expressão e menos privacidade.
O histórico da Internet foi relatado para demonstrar o aspecto dinâmico,
contrastando-se seu cenário original com as tendências de transformação que impulsionam
a Internet atualmente. A Internet começou com um estilo militar que garantia robustez e
flexibilidade. Os grupos acadêmicos também colocaram seus valores, como a abertura
124
permitindo que qualquer um fosse um produtor, o que fez surgir o e-mail e diversas outras
inovadoras aplicações. Os cientistas decidiam por meritocracia, sem organização jurídica.
Atualmente, as tendências são de cada vez mais uma dominação de
interesses comerciais e de segurança. O potencial de liberdade dos usuários diminui
conforme mais inteligência é adicionada na rede, removendo a neutralidade em
contrapartida de um benefício na qualidade do serviço.
Essa mudança tem também a ver com a mudança cultural na história da
Internet, originalmente era uma pequena comunidade de cientistas com grande afinidade e
confiança mútua, e na qual o uso comercial era proibido. Com a entrada de novas partes
interessadas surgem novas expectativas e interesses.
A característica fim-a-fim estimulou muita inovação e colocou poder na
mão dos usuários. Em muitos casos, novas aplicações foram desenvolvidas permitindo
abusos por parte de alguns usuários, como no caso de redes peer-to-peer que podem ser
usadas para compartilhar dados em violação a direitos de propriedade intelectual, como
músicas em formato .MP3. Assim, a característica fim-a-fim não é necessariamente a mais
interessante para a indústria que deseja retomar controle. Entretanto, a rede inteligente
pode apresentar benefícios de segurança e estabilidade, conforme seus defensores.
O contexto que deu origem ao princípio fim-a-fim na fase inicial da Internet
hoje é diferente, e não há uma concreta garantia a respeito de sua manutenção, ou mesmo
uma clareza quando às vantagens e desvantagens em sua manutenção. A única certeza é
que a mudança do princípio do fim-a-fim para uma rede com inteligência interna traz
grandes efeitos regulatórios. Considerando que a dinâmica da Internet dá-se por meio das
mudanças de arquitetura, é necessário decidir como decisões de mudança de tecnologia
gerando regulação pela arquitetura serão tomadas dentro de níveis adequados de
governança.
É necessário investigar com maior profundidade o futuro do princípio da
neutralidade. Todo o debate sobre os protocolos de rede abertos, proprietários e formais
ilustra como os padrões técnicos podem ser políticos. As decisões técnicas podem ter fortes
conseqüências econômicas e sociais, alterando o equilíbrio de poder entre empresas
concorrentes ou nações diferentes, mesmo limitando a liberdade de usuários. Esforços para
criar padrões formais trazem os criadores de sistemas e suas decisões técnicas e privadas
ao campo público; dessa forma, batalhas de padrões podem trazer implícitos diversos
125
conflitos de interesse. Por isso, a definição legítima de padrões internacionais (tanto
formais e públicos como “de facto”) não pode ser deixada somente na mão do mercado ou
mesmo de organizações de tecnólogos. Por outro lado, uma intervenção inadequada pode
ser ainda mais prejudicial.
Uma história repleta por lutas de poder é o que marcou a primeira noção de
governança da Internet. Com a invenção do Domain Name System – DNS para facilitar a
localização de dados na Internet, a responsabilidade no controle do sistema passou de um
único indivíduo, Jon Postel, para a ICANN. Esse processo contou com controversos
episódios, como a criação do Internet ad hoc Committee – IAHC, o International Forum
on the White Paper, a oposição de interesses da Network Solutions, Inc., e mesmo de
confrontos internacionais envolvendo Estados Unidos da América, Europa, UIT e também
interesses de detentores de marcas, representados pela OMPI e pela International
Trademark Association. Em contrapartida à criação da ICANN, a UIT realizaria uma
conferência mundial, a Cúpula Mundial sobre a Sociedade da Informação – CMSI, que
resultou em uma inesperada manifestação global sobre a importância da governança da
Internet, resultando na criação do Grupo de Trabalho sobre a Governança da Internet –
GTGI.
O GTGI recebeu o mandato de apresentar uma definição de trabalho sobre o
controverso tema da “governança da Internet”, de modo a resolver as discussões entre as
diferentes visões que entendiam que a governança seria ou um tema estreito relacionado
aos nomes e números do DNS ou um tema amplo que compreenderia o futuro da Internet e
os diversos efeitos políticos, sociais e econômicos.
Como exposto na parte introdutória, as discussões ligadas à ICANN e sua
supervisão política e mesmo as propostas de criação de uma organização internacional ou
tratado que pudesse legitimar o controle do sistema de nomes e números compõem
importante parte do tema da governança da Internet. Porém, não foram enfrentadas na
dissertação, por ultrapassar os objetivos pretendidos, conforme motivos já expostos. A
controvérsia da ICANN foi apresentada sucintamente para aproveitar o exemplo de uma
situação em que os atores mais articulados ou que tinham maior poder tomaram as
principais decisões, o que gerou grande descontentamento de diversos stakeholders.
Na Segunda Fase da CMSI a governança da Internet foi entendida não
apenas como o conjunto de ações relacionadas ao gerenciamento de nomes e números, mas
compreendendo também o estabelecimento de padrões tecnológicos e definição de
126
políticas públicas. É muito importante a devida representação dos interesses globais no
estabelecimento dos padrões técnicos que como analisado possuem impactos sociais,
culturais, políticos e econômicos. O relatório do GTGI mostra que a Internet atraiu atenção
internacional e indica papéis dos stakeholders e propôs a criação de um fórum.
Semelhantemente à questão de nomes e números, decisões a respeito da
determinação de padrões tecnológicos (tanto “de facto” como formais) estão sendo
realizadas pelos atores mais articulados, sem uma suficiente governança. A governança é o
melhor meio para legitimar o poder ao promover colaboração. A interação entre diversos
stakeholders e a subscrição de atores internacionais mais tradicionais como governos em
agendas altamente complexas e com detalhes tecnológicos pode ser facilitada com o uso de
mecanismos suaves (soft), de melhor aceitação, como recomendações não vinculantes.
A respeito da importância dos mecanismos soft, é destacada a possibilidade
de participação de entidades da sociedade civil e do setor privado, essencial para despertar
a consciência da importância da governança da Internet, apresentando suas opiniões que
influenciaram a tomada de decisões, mesmo sem o status de sujeitos de direito
internacional. Semelhantemente ao papel das organizações não governamentais no que diz
respeito à proteção do meio ambiente, os representantes da sociedade civil, do setor
privado e mesmo aqueles que se manifestaram em sua capacidade pessoal, enquanto
usuários da Internet, contribuíram para a conscientização da opinião pública e para o
debate na formação do conceito de governança da Internet.
A soft law apresenta elementos positivos para tratar da governança da
Internet. Em primeiro lugar, é uma abordagem menos formal e assim não exige o
comprometimento oficial dos Estados e, portanto, reduz riscos políticos potenciais. Em
segundo lugar, é flexível o suficiente para facilitar o teste de novas abordagens e ajuste a
rápidos desenvolvimentos no campo de governança da Internet, que é caracterizado por
muitas incertezas. Em terceiro lugar, a soft law fornece uma maior oportunidade para uma
abordagem multistakeholder do que a abordagem internacional restrita a Estados e
organizações internacionais.
A soft law ainda possibilita um dos mais importantes elementos da segunda
fase da CMSI: o comprometimento de criação do Internet Governance Forum – IGF, que
pode contribuir para a colaboração. A criação do IGF tem muito em comum com a CMSI,
sendo multistakeholder, não vinculante, criada pela ONU, e capaz de lidar com um amplo
escopo de temas de Internet e política de tecnologia. No mínimo o IGF parece um método
127
adequado de continuar o trabalho iniciado pela CMSI, por exemplo no caso dos debates
sobre o princípio fim-a-fim.
Não se pode aceitar que a evolução da Internet se dê à margem do Direito,
pelas teorias apresentadas e pela aceitação da regulação pela arquitetura. Entretanto, o
direito internacional tradicional, com sua estreita definição de sujeitos de direito
internacional e com mecanismos de hard law poderia se revelar demasiadamente
hermético para que as relações dinâmicas da Internet fossem por ele contempladas.
A moderna visão do Direito Internacional, contudo, mostra o contrário.
Outros atores como organizações não governamentais que representam interesses da
sociedade civil e do setor privado, bem como aqueles atores que representam outras
categorias que não necessariamente se enquadram na classificação tripartite entre
“governos, sociedade civil e setor privado”, conforme a classificação da CMSI, como por
exemplo os representantes do setor acadêmico, das mulheres, dos jovens, dos tecnólogos,
ou mesmo usuários individuais da Internet, tiveram a oportunidade de apresentar seus
pontos de vista em uma conferência das Nações Unidas que deu continuidade à evolução
do conceito de diplomacia multistakeholder.
Tal conceito somente foi possível na medida em que a soft law permite
alcançar acordos não vinculantes, envolvendo atores sem personalidade de direito
internacional, sem necessidade de ratificação. A própria CMSI não seria possível sem a
participação desses importantes atores, pois foram eles os que conduziram a evolução da
sociedade da informação.
Especificamente no que diz respeito à definição de padrões tecnológicos, a
Internet Engineering Task Force – IETF tem métodos abertos de deliberação, apesar de na
essência ter falhas assim como a Internet Corporation for Assigned Names and Numbers –
ICANN, derivadas de um sistema de governança carente de uma institucionalização
internacional legítima.
No que diz respeito à governança da Internet no processo de definição de
padrões tecnológicos, a IETF deve se adequar à estrutura a ser criada pelo Internet
Governance Forum. Nesse sentido, o IGF pode ser usado como uma plataforma adicional a
ser usada pela IETF para legitimação das decisões por ela tomadas.
O IGF, assim, é mais um exemplo concreto de fenômeno identificado por
Nasser (2005, p.16):
128
Com a crescente emergência das organizações intergovernamentais, a partir do final do século XIX, com sua extraordinária proliferação durante todo o século XX, e ao que tudo indica, ainda a emergência, no século XXI, de novas formas da diplomacia multilateral, que institui formas decisórias e de gestão internacionais, as quais se encontram numa fase embrionária, a caminho de uma possível institucionalização, as maneiras tradicionais que existiam, pelas quais se revelavam as normas jurídicas internacionais, ou seja, as fontes do Direito Internacional, deveriam sofrer radicais transformações. Referimo-nos, em particular, à constituição de foros internacionais, através de tratados multilaterais, que acabam por instituir secretariados com extensos poderes, e que ainda prevêem reuniões intermitentes dos Estados Partes, na forma de Conferências das partes, como se os tratados ainda não estivessem prontos e acabados, sem, no entanto, estarmos frente a organizações intergovernamentais. (grifos nossos).
Decisões somente podem ser livremente tomadas quando existe
transparência na divulgação de informações a respeito das potenciais conseqüências que
elas podem trazer. Para isso é fundamental a capacitação de modo que as partes
interessadas possam atuar significantemente. Conforme o mandato do IGF, os debates
podem aproveitar a expertise das comunidades acadêmica, científica e técnica. A partir dos
levantamentos, o IGF poderá elaborar suas Recomendações não vinculantes dando
preferência a determinados padrões que entende mais adequados aos princípios levantados
pelo processo da CMSI.
A importância do Direito nos processos decisórios é observada.
Considerados os vários efeitos regulatórios que são derivados da manutenção ou supressão
do princípio fim-a-fim, o IGF deve estruturar grupos de trabalho que envolvam todas as
partes interessadas a debater e ao final preparar recomendações que iluminem a futura
tomada de decisão. Desse modo, são reduzidas as oportunidades de influência dos agentes
mais articulados na configuração do futuro da Internet.
Entre vários assuntos que devem ser enfrentados pelo IGF, é importante sua
atuação como uma plataforma de discussão a respeito da arquitetura da Internet, dada sua
importância no futuro da rede. Assim, a deliberação a respeito de definição de padrões
tecnológicos não pode ser feita com legitimidade isoladamente por grupos de tecnólogos
como a IETF ou por coalizões empresariais como o Trusted Computing Group. O IGF, que
ainda não está formado, terá papel fundamental na colaboração e legitimação na discussão
de governança da Internet em sentido amplo.
REFERÊNCIAS BIBLIOGRAFICAS
ABBATE, J. Inventing the Internet. London: The MIT Press,1999.
ABBOT, K.W.; SNIDAL, D. Hard and Soft Law in International Governance. International Organization, v. 54 i3, Summer 2000.
AFONSO, C. A Scenario for a New Internet Governance. Disponível em: <http://www.wgig.org/docs/book/Carlos_Afonso%20.pdf>. Acesso em 16.01.2006.
AFONSO, C. Quem ganhou? De certo modo, o mundo ganhou. Observatório de Políticas Públicas de Infoinclusão. Disponível em: <http://observatorio.ultimosegundo.ig.com.br/artigos.asp?cod=356ENO003>. Acesso em 16.01.2006.
AL-DARRAB, A. The need for international Internet governance oversight. in Reforming Internet Governance: Perspectives from the Working Group on Internet Governance (WGIG). New York: United Nations ICT Task Force, 2005.
ANNAN, K. The U.N. Isn't a Threat to the Net. Washington Post, Washington, 5 nov. 2005, Columns, p.A9. Disponível em: <http://www.washingtonpost.com/wp-dyn/content/article/2005/11/04/AR2005110401431.html>. Acesso em 16.01.2006.
BAPTISTA, L.O. Aspectos Jurídicos das Transferências Internacionais de Fundos. 1986. Tese (Livre Docência em Direito Internacional Privado) – Faculdade de Direito, Universidade de São Paulo, São Paulo.
BARLOW, John Perry. Declaration of Independence of Cyberspace. .in: ELETRONIC FRONTIER FOUNDATION. Disponível em: <http://www.eff.org/~barlow/barlow.html>. Acesso em 16.01.2006.
BENKLER, Y. From Consumers to Users: Shifting the Deeper Structures of Regulation Towards Sustainable Commons and User Access. [S.l.]: Federal Communications Law Journal, 2000. Disponível em: <http://www.law.indiana.edu/fclj/pubs/v52/no3/benkler1.pdf>. Acesso em 16.01.2006.
_______________. Coase's Penguin, or, Linux and the Nature of the Firm. New Haven: Yale Law Journal, 2002. Disponível em: <http://www.benkler.org/CoasesPenguin.html>. Acesso em 16.01.2006.
BERNERS-LEE, T.. Weaving the Web – The Past, Present and Future of the World Wide Web by Its Inventor. London: Texere Publishing Limited, 2000.
BOBBIO, N. Teoria da Norma Jurídica. São Paulo: Edipro, 2001.
_______________. Teoria do Ordenamento Jurídico. 10ª ed., Brasília: Editora Universidade de Brasília, 1999.
BOLLIER, D. Silent Theft: the Private Plunder of Our Common Wealth, Routledge, London, 2003,
BOYLE, J. Foucault in Cyberspace: Surveillance, Sovereignty, and Hard-Wired Censors. Disponível em <http://www.law.duke.edu/boylesite/foucault.htm> Acesso em 15.09.2004.
CASTELLS, M. A Sociedade em Rede. 3ª ed., São Paulo, Paz e Terra, 1999.
CERF, V. IETF and ISOC. Disponível em: <http://www.isoc.org/isoc/related/ietf/>. Acesso em 16.01.2006.
CLARK, D.D.; BLUMENTHAL, M. Rethinking the design of the Internet: The end to end arguments vs. the brave new world. Disponível em:
<http://www.ana.lcs.mit.edu/papers/PDF/Rethinking_2001.pdf>. Acesso em 16.01.2006.
CLARK, D., SOLLINS, K., WROCLAWSKI, J. e BRADEN, R. Tussle in Cyberspace: Defining Tomorrow`s Internet. Disponível em: <http://mia.ece.uic.edu/~papers/Networking/pdf00003.pdf>. Acesso em 16.01.2006.
COMISSÃO SOBRE GOVERNANÇA GLOBAL. Nossa Comunidade Global. O Relatório da Comissão sobre Governança Global. Tradução: Luiz Alberto Monjardim e Maria Lucia Leão Velloso de Magalhães. Rio de Janeiro, Editora da Fundação Getúlio Vargas, 1996.
COMPARATO, F. K. O Poder de Controle na Sociedade Anônima. 3. ed. Rio de Janeiro: Forense, 1983.
COUNCIL OF THE EUROPEAN UNION. Internet Governance: Reply of the European Community and Its Member States to the US Green Paper. Brussels: Information Society Policies, 1998. Disponível em: <http://europa.eu.int/ISPO/eif/InternetPoliciesSite/InternetGovernance/MainDocuments/ReplytoUSGreenPaper.html>. Acesso em 16.01.2006.
ELKIN-KOREN, N.; SALZBERGER, E. Law and Economics in Cyberspace. Disponível em: <http://www.brousseau.info/semnum/pdf/2002-11-18_Elkin.pdf>. Acesso em 11.12.04
FALCÃO, J. Internet estável e segura, Folha de São Paulo, 31.07.2005. Disponível em <http://www1.folha.uol.com.br/fsp/opiniao/fz3107200509.htm>. Acesso em 16.01.2006.
FERRAZ JR., T. S. Introdução ao Estudo do Direito. Técnica, Decisão, Dominação .2ª ed. São Paulo: Atlas, 1994.
FOUCAULT, M. Microfísica do Poder. 14ª ed. Rio de Janeiro, Graal, 1999.
___________ Vigiar e Punir. 27ª ed. Petrópolis: Editora Vozes, 2003, p.163.
GEIST, M. Towards a two-tier Internet. BBC News. London, 22 dez. 2005, Technology. Disponível em: <http://news.bbc.co.uk/1/hi/technology/4552138.stm>. Acesso em 16.01.2006.
GELBSTEIN, E.; KURBALIJA, J.. Internet Governance – Issues, Actors and Divides. Disponível em: <http://textus.diplomacy.edu/textusbin/env/scripts/Pool/GetBin.asp?IDPool=641>. Acesso em 16.01.2006.
GUSMÃO, P. D. Introdução à Ciência do Direito. 33a ed. Rio de Janeiro:Editora Forense, 2003.
HAFNER, K., LYON, M. When Wizards Stay Up Late (The Origins of the Internet), Touchstone, 1998.
HILLGENBERG, H. A Fresh Look at Soft Law. Disponível em: <http://www.ejil.org/journal/Vol10/No3/100499.pdf>. Acesso em 16.01.2006.
INTERNATIONAL TELECOMMUNICATIONS UNION. Resolution 102. Marrakesh: 2002. Disponível em: <http://www.itu.int/osg/spu/resolutions/2002/res102.html>. Acesso em 16.01.2006.
INTERNET ENGINEERING TASK FORCE -IETF. Internet Protocol. Request of Comments 791 (RFC 791) Disponível em: <http://www.ietf.org/rfc/rfc0791.txt.> Acesso em 16.01.2006.
____________ The Tao of IETF: A Novice's Guide to the Internet Engineering Task Force (RFC 3160) .Disponível em: <http://www.ietf.org/rfc/rfc3160.txt>. Acesso em 16.01.2006.
____________ Architectural Principles of the Internet (RCF 1958) Disponível em: <http://www.ietf.org/rfc/rfc1958.txt>. Acesso em 16.01.2006.
____________.Deflate Compressed Data Format Specification. Request for Comments 1951 (RFC 1951). Disponível em:<http://www.ietf.org/rfc/rfc1951.txt>. Acessado em:
____________.The Internet Standards Process. Request of Comment 2026 (RFC 2026). Disponível em: <http://www.ietf.org/rfc/rfc2026.txt>. Acesso em 16.01.2006.
_____________ The Rise of the Middle and the Future of End-to-End: Reflections on the Evolution of the Internet Architecture. Request for Comments 3724. (RFC 3724). Disponível em:<http://www.ietf.org/rfc/rfc3724.txt>. Acesso em 16.01.2006. .
INTERNET GOVERNANCE PROJECT. Internet Governance: The State of Play. [S.l.]: 2004. Disponível em: <http://dcc.syr.edu/miscarticles/MainReport-final.pdf>. Acesso em 16.01.2006.
INTERNET SOCIETY. All About the Internet: History of the Internet. Disponível em: <http://www.isoc.org/Internet/history/>. Acesso em 16.01.2006.
_______________. Internet Society's Participation in: World Summit on the Information Society (WSIS). Reston: 15 ago. 2005. Disponível em:
<http://www.isoc.org/isoc/conferences/wsis/wgigcomments.shtml>. Acesso em 16.01.2006.
INTERVOZES - COLETIVO BRASIL DE COMUNICAÇÃO SOCIAL. Informativo Intervozes - TV Digital. Saiba por que você precisa participar desse debate. Disponível em: <http://www.intervozes.org.br/arquivos/TVDigital.pdf>. Acesso em 16.01.2006.
JOHNSON, D; POST, D. The Rise of Law on the Global Network, in: Borders in Cyberspace, Cambridge, The MIT Press,1997.
JORDAN, T. Cyberpower: The Culture and Politics of Cyberspace and the Internet. London, Routledge, 1999.
KLEINWÄCHTER, W. Beyond ICANN Vs ITU? How WSIS Tries to Enter the New Territory of Internet Governance. Disponível em: <http://gaz.sagepub.com/cgi/content/abstract/66/3-4/233>. Acesso em 16.01.2006.
KRIM, J. Executive Wants to Charge for Web Speed. Some Say Small Firms Could Be Shut Out of Market Championed by BellSouth Officer. Washington Post, Washington, 1 dez. 2005, Technology, p. D05. Disponível em <http://www.washingtonpost.com/wp-dyn/content/article/2005/11/30/AR2005113002109.html>. Acesso em 15.01.2006.
KRUSE, H, YURCIK, W e LESSIG, L. The InterNAT: Policy Implications of the Internet Architecture Debate. Disponível em <http://www.tprc.org/abstracts00/internatpap.pdf>. Acesso em 16.01.2006.
KURBALIJA, J. Internet Governance and International Law. Disponível em: <http://www.wgig.org/docs/book/Jovan_Kurbalija%20.pdf>. Acesso em 16.01.2006.
LEMKE, T. Foucault, Governmentality, and Critique. Disponível em < http://www.thomaslemkeweb.de/engl.%20texte/Foucault,%20Governmentality,%20and%20Critique%20IV.pdf> Acesso em 02.02.2005
LEMLEY, M.; LESSIG, L. The End of End-to-End: Preserving the Architecture of the Internet in the Broadband Era. Berkeley: The Berkeley Law and Economics Working Papers, V.2000, nº2, Article 8, 2001. Disponível em: <http://www.bepress.com/cgi/viewpdf.cgi?article=1029&context=blewp&preview_mode=>. Acesso em 16.01.2006.
LESSIG, L. Code and Other Laws of Cyberspace. New York, Basic Books, 1999.
_______________. The future of ideas. New York, Vintage Books, 2002.
_______________. Governance. Disponível em <http://cyber.law.harvard.Edu/works/lessig/final.pdf> Acesso em 21.01.2000
_______________. Cyberspace’s Constitution. Disponível em <http://cyber.law.harvard.edu/works/lessig/AmAcd1.pdf> Acesso em 15.02.2000
_______________. The Law of the Horse: What Cyberlaw Might Teach. Disponível em <http://cyber.law.harvard.edu/works/lessig/finalhls.pdf> Acesso em 21.01.2000
_______________. Reading the Constitution in Cyberspace. Disponível em <http://papers.ssrn.com/paper.taf?ABSTRACT_ID=41681#Paper%20Download> Acesso em 02.02.2000
_______________. “The Place of Cyberlaw.” in The Place of Law. Austin Sarat, Lawrence Douglas, Martha Merrill Umphrey. University of Michigan Press, 2003. 192 pg.
_______________. Voice-Over-IP’s Unlikely Hero.Wired Magazine, [S.l.], mai. 2005. Disponível em: <http://www.wired.com/wired/archive/13.05/view.html?pg=4>. Acesso em 15.01.2006.
LÉVY, Pierre. O que é o Virtual? São Paulo, Ed. 34, 1996.
LIECHTENSTEIN, C.C. Hard Law v. Soft Law: Unnecessary Dichotomy? The International Lawyer, Winter 2002, Volume 5, Number 4.
LYONS, P. “The End-End Principle and the Definition of Internet” Preparatory Process: Working Group on Internet Governance (WGIG). Disponível em: <http://www.wgig.org/docs/CNRI-November.doc>. Acesso em 16.01.2006.
MARTINS, A.L.; BARBUY, H. Arcadas. História da Faculdade de Direito do Largo de São Francisco – 1827-1997. São Paulo, Alternativa. 1998.
MATHIASON, J, et al. Internet Governance: The State of Play. Disponível em: <http://dcc.syr.edu/miscarticles/MainReport-final.pdf>. Acesso em 16.01.2006.
MCTAGGART, C. Governance of the Internet's Infrastructure: Network Policy for the Global Public Network. 1999. Tese (Master of Laws) - Faculdade de Direito, University of Toronto, Toronto, 1999. Disponível em: <http://www.internetstudies.org/networks/members/craimct/thesis/section0.htm>. Acesso em 16.01.2006.
MELLO, C. D. de A. Curso de Direito Internacional Público. 9ª ed., Rio de Janeiro, Renovar, 1992.
MUELLER, M. Ruling the Root. Internet Governance and the Taming of Cyberspace. Cambrigde. The MIT Press, 2004.
_______________. Lista de discussão mantida pela Internet Governance Caucus. Disponível em: <[email protected]>. Acesso em 16.01.2006. Mensagem recebida de <[email protected]> em: 27 ja. 2005.
NADER, P. Introdução ao Estudo do Direito. 23a ed. Rio de Janeiro: Editora Forense. 2003.
NYE, J. S. Jr.; DONAHUE, J D. Governance in a Globalizing World. Washington, Brookings Pressings, 2000.
PLATÃO. Fedro. Tradução de Alex Marins. 1ª ed., São Paulo, Editora Martin Claret, 2003.
POSTEL, Jon. Testimony before the Sub Committee on Basic Research of the Committee on Science of the House of Representatives, Washington, October 7, 1998.
POSTMAN, N. Technopoly – The Surrender of Culture to Technology. 1ª ed., New York, Vintage, 2000.
REALE, M. Fundamentos do Direito. 3ª ed., São Paulo, RT, 1998.
_______________. Lições Preliminares de Direito. 24ª ed., São Paulo, Saraiva, 1999.
_______________. Teoria Tridimensional do Direito. 1ª ed., São Paulo, Saraiva, 1968.
RHEINGOLD, H. A Comunidade Virtual. Lisboa, Gradiva, 1996.
SALOMÃO FILHO, C. Regulação da atividade econômica (princípios e fundamentos jurídicos). São Paulo, Malheiros, 2001.
SALTZER, Jerome, REED, David CLARK, David , End to End Arguments in System Design .Disponível em:<http://web.mit.edu/Saltzer/www/publications. Acesso em:
SANTOS. C. Telemar proíbe uso de VoIP no Velox. COMPUTERWORLD.São Paulo, 7 nov. 2005. Disponível em: <http://computerworld.com.br/AdPortalv5/adCmsDocumentShow.aspx?GUID=D0349C8A-146C-48D8-9591-AD1291C4529A&ChannelID=20>. Acesso em 16.01.2006.
SARAT, A, DOUGLAS, L; UMPHREY, M. The Place of Law. University of Michigan Press, 2003.
SHAPIRO, A. The Control Revolution: How the Internet is Putting Individuals in Charge and Changing the World We Know. 1ª ed., New York, Public Affairs, 1999.
SCHWARTSMAN, H. São Paulo, o rio e Heráclito. Folha de São Paulo. Disponível em: <http://www1.folha.uol.com.br/folha/pensata/ult510u130.shtml>. Acesso em 16.01.2006.
SOARES, G.F.S.. Curso de Direito Internacional Público. São Paulo, Atlas, 2002.
_______________. Direito Internacional do Meio Ambiente. Emergência, Obrigações e Responsabilidades. 2ª. Ed., São Paulo, Atlas, 2003.
SOLUM, L. B. CHUNG, M. The Layers Principle: Internet Architecture and the Law. Disponível em: < http://ssrn.com/abstract=416263 >. Acesso em 02.09.2005.
THE INSIDER.ORG. U.N. Commission on Global Governance. Disponível em < http://www.theinsider.org/mailing/article.asp?id=00092> Acesso em 10.02.2005
THIERER, A. CREWS JR., CLYDE W. (orgs.) Who Rules the Net? Internet Governance and Jurisdiction. Washington. 2003. Cato Institute.2003.
TRUSTED COMPUTING GROUP. Web site do Trusted Computing Group. Disponível em: < https://www.trustedcomputinggroup.org/about/>. Acesso em 16.01.2006.
UNITED STATES OF AMERICA. US Principles on the Internet`s Domain Name and Addressing System. Washington: US Department of Commerce, 2005. Disponível em: <http://www.ntia.doc.gov/ntiahome/domainname/USDNSprinciples_06302005.htm>
UNITED STATES OF AMERICA. Federal Communications Commission, FCC Chairman Michael K. Powell Commends Swift Action to Protect Internet Voice Access. Disponível em: <http://hraunfoss.fcc.gov/edocs_public/attachmatch/DOC-257175A1.doc>. Acesso em 16.01.2006.
_______________. The White House. A Framework for Global Electronic Commerce. Washington, DC: 1997. Disponível em: <http://www.technology.gov/digeconomy/framewrk.htm>. Acesso em 16.01.2006.
_______________. DEPARTMENT OF COMMERCE.A Proposal to Improve the Technical Management of Internet Names and Addresses. Disponível em: <http://www.ntia.doc.gov/ntiahome/domainname/domainname130.htm> Acesso em 16.01.2006
_______________. DEPARTMENT OF COMMERCE. Statement of Policy on the Management of Internet Names and Addresses. 5 jun.1998. Disponível em: <http://www.ntia.doc.gov/ntiahome/domainname/6_5_98dns.htm. Acesso em:16.01.2006.
WHITT, R S. A Horizontal Leap Forward: Formulating a New Communications Public Policy Framework Based on the Network Layers Model. Disponível em: <http://global.mci.com/about/publicpolicy/presentations/newamericalayerspresentation.pdf>. Acesso em 16.01.2006.
WORKING GROUP ON INTERNET GOVERNANCE. Report of the Working Group
on Internet Governance. Geneva, Chatêau de Bossey: 2005a. Disponível em: <http://www.wgig.org/docs/WGIGREPORT.pdf>. Acesso em 16.01.2006.
_______________. Background Report - The Working Group on Internet Governance. [S.l.]: 2005b. Disponível em: <http://www.wgig.org/docs/BackgroundReport.pdf>. Acesso em 16.01.2006.
_______________. [S.l.]: 2005c. Draft WGIG issue paper on Network and Information Security. Disponível em: <www.wgig.org/docs/WP-NetworkSecurity.pdf >. Acesso em 16.01.2006.
_______________. [S.l.]: 2005d. Internet Governance Arrangements: Questionnaire. Disponível em: <http://www.wgig.org/docs/Questionnaire.09.05.05.pdf >. Acesso em 16.01.2006
_______________. [S.l.]: 2005e. Draft WGIG Issue Paper on Technical Standards. Disponível em: <http://www.wgig.org/docs/WP-techstand.pdf >. Acesso em 16.01.2006
WSIS CIVIL SOCIETY INTERNET GOVERNANCE CAUCUS. Response to the WGIG Report. Disponível em: <http://wsispapers.choike.org/wsis_igcaucus_wgig_final.pdf>. Acesso em 16.01.2006.
ZITTRAIN, J. Testimony of Jonathan Zittrain, Executive Director, Berkman Center for Internet and Society at Harvard Law School before the Subcommittee on Investigations and Oversight Committee on Commerce, U.S. House of Representatives. Washington, DC: US House of Representatives, 1999. Disponível em: <http://cyber.law.harvard.edu/zittraintestimony.pdf>. Acesso em 16.01.2006.
_______________. Internet Points of Control. Disponível em: <http://cyber.law.harvard.edu/home/uploads/202/2003-01.pdf>. Acesso em 16.01.2006.
_______________. Be Careful What You Ask For: Reconciling a Global Internet and Local Law. Cambridge: The Berkman Center for Internet and Society, Research Publication No. 2003-03. 2003. Disponível em: <http://cyber.law.harvard.edu/home/uploads/204/2003-03.pdf>.
____________The Generative Internet. Cambridge: Harvard Law School, Harvard law Review 2006. Disponível em: <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=847124>. Acesso em 16.01.2006.
BIBLIOGRAFIA
BERLEUR, J.; DUQUENOY, P.; WHITEHOUSE, D. Ethics and the Governance of the Internet. Disponível em: <http://www.info.fundp.ac.be/~jbl/IFIP/Ethics_and_Internet_Governance.pdf>. Acesso em 16.01.2006.
BERKMAN CENTER FOR INTERNET AND SOCIETY. Disponível em: http://cyber.law.harvard.edu/home/. Acesso em: 16.01.2006.
____________. The Debate Over Internet Governance: A Snapshot in the Year 2000. Disponível em: <http://cyber.law.harvard.edu/is99/governance/introduction.html> Acesso em: 16.01.2006.
CERQUEIRA, T. Q. O Direito do ciberespaço.Jus Navegandi. Teresina, a.4, n.36, nov. 1999. Disponível em: <http://jus2.uol.com.br/doutrina/texto.asp?id=1774>. Acesso em 16.01.2006.
CHRISTENSEN, C. The Innovator`s Dilemma: When New Technologies Cause Great Firms to Fail, Cambridge, Harvard Business School Press, 1995.
DAVID, P. A. The Beginnings and Prospective Ending of ‘End-to-End’. An Evolutionary Perspective on the Internet's Architecture. Oxford: All Souls College, 2001. Disponível em: <http://www-econ.stanford.edu/faculty/workp/swp01012.pdf>. Acesso em 16.01.2006.
DEDEURWAERDERE, T. Ethics, Social Reflexivity and Governance of the Information Society, A Reflexive criticism of the institutional framing of the Internet. Louvain-la-Neuve: Centre de Philosophie du Droit, 2002. Disponível em: <http://www.cpdr.ucl.ac.be/docTravail/dedeurwaerdere94.pdf>. Acesso em 16.01.2006.
ESBIN, B. Internet Over Cable: Defining the Future in Terms of the Past.Washington, DC: Federal Communications Commission, 1998. Disponível em: <http://www.fcc.gov/Bureaus/OPP/working_papers/oppwp30.pdf>. Acesso em 16.01.2006.
EUROPEAN DIGITAL RIGHTS, ISP Self-Regulation Proposal Entertainment Industry Disponível em: <http://www.edri.org/edrigram/number3.7/takedown>. Acesso em 15.01.2006
FRANKEL, T. The Common Law and Cyberspace. Disponível em: <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=292614>. Acesso em 16.01.2006.
GIBBONS, L.J. No Regulation, Government Regulation, or Self-Regulation: Social Enforcement or Social Contracting for Governance in Cyberspace. New York: Cornell Journal of Law and Public Policy, 1997. Disponível em: <http://law.utoledo.edu/publications/Gibbons-Cornell.htm>. Acesso em 16.01.2006
HUNTER, D.. Cyberspace as a Place, and the Tragedy of the Digital Anticommons. Disponível em: <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=306662>, Acesso em 16.01.2006.
INTERNET CORPORATION FOR ASSIGNED NAMES AND NUMBERS. Top Level Domains. Disponível em:<http://www.icann.org/tlds> .Acesso em 16.01.2006.
INTERNET GOVERNANCE FORUM - IGF. Repositório oficial de informações referentes ao Internet Governance Forum. Disponível em: <http://www.intgovforum.org>. Acesso em 16.01.2006.
INTERNET SOCIETY. Web site da Internet Society. Disponível em:<http://www.isoc.org/>. Acesso em 16.01.2006.
KESAN, J.P.; SHAH, R.C. Fool Us Once Shame on You - Fool Us Twice Shame on Us: What We Can Learn from the Privatizations of the Internet Backbone Network and the Domain Name System. Washington, DC: Washington University Law Quarterly, 2001. Disponível em: <http://papers.ssrn.com/sol3/Delivery.cfm/SSRN_ID260834_code010221520.pdf?abstractid=260834&mirid=2>. Acesso em 16.01.2006
LEMLEY M. A., LESSIG L., In re Application for Consent to the Transfer of Control of Licenses MediaOne Group, Inc. to AT&T Corp., (F.C.C. 1999), Disponível em <http://cyber.law.harvard.edu/works/lessig/cable/fcc/fcc.html>. Acesso em 16.01.2006.
LESSIG, L. The Architecture of Innovation. Disponível em <http://www.law.duke.edu/pd/papers/lessig.pdf>. Acesso em 16.01.2006.
LEONARDI, M. Responsabilidade Civil dos Provedores de Serviços de Internet. São Paulo, Editora Juarez de Oliveira, 2005,.
MCCULLAGH, D. U.S. Senator: Keep U.N. away from the Internet. CNet News.com. 19 out. 2005. Disponível em <http://www.zdnetasia.com/news/internet/0,39044246,39280848,00.htm>. Acesso em 16.01.2006.
ORLOWSKI, A. iTunes: DRM cracked wide open for GNU/Linux. Seriously. The Register. Las Vegas: 5 jan 2004. Disponível em: <http://www.theregister.co.uk/2004/01/05/itunes_drm_cracked_wide_open/>. Acesso em 15.01.2006.
OXFORD INTERNET INSTITUTE DA UNIVERSITY OF OXFORD. Disponível em: <http://www.oii.ox.ac.uk/>. Acesso em 16.01.2006.
REINALDO FILHO, D. O Cyberspace como um lugar, um estado mental ou meios de comunicação? InfoJus. Recife: 10 nov. 2000. Disponível em: <http://www.infojus.com.br/webnews/noticia.php?id_noticia=224&>. Acesso em 16.01.2006.
SCHWARTZ, P. Privacy and Democracy in Cyberspace. Disponível em: <http://papers.ssrn.com/sol3/papers.cfm?abstract_id=205449>. Acesso em 16.01.2006.
SHAH, R.C.; KESAN, J.P. The Privatization of the Internet's Backbone Network. Disponível em: <http://www.governingwithcode.org/journal_articles/pdf/Backbone.pdf>. Acesso em 16.01.2006.
SPETA, J.B. A Common Carrier Approach to Internet Interconnection. [S.l]: Federal Communications Law Journal, v.54, 2002. Disponível em: <http://www.law.northwestern.edu/faculty/fulltime/speta/papers/CommonCarrier.pdf>. Acesso em16.01.2006.
STANFORD LAW SCHOOL CENTER FOR INTERNET AND SOCIETY. Disponível em: <http://cyberlaw.stanford.edu/>. Acesso em 16.01.2006.
STANFORD LAW SCHOOL. The Policy Implications of End-to-End. Disponível em: <http://cyberlaw.stanford.edu/e2e/details.html>. Acesso em: 16.01.2006.
TECHNOREALISM. Technorealism. Disponível em <http://www.technorealism.org>. Acesso em 15.01.2006.
UNIÃO INTERNACIONAL DE TELECOMUNICAÇÕES. Repositório oficial das informações referentes ao World Summit on the Information Society. Disponível em: <http://www.itu.int/wsis>. Acesso em: 16.01.2006.
WEINBERG, J. The Internet And "Telecommunications Services," Universal Service Mechanisms, Access Charges, and Other Flotsam of the Regulatory System. New Haven, CT: Yale Journal on Regulation, 1999. Disponível em: <http://www.law.wayne.edu/weinberg/FLOTSAM.a04.PDF>. Acesso em 16.01.2006
WORKING GROUP ON INTERNET GOVERNANCE. Apresenta os resultados obtidos pelo Grupo de trabalho de Governança da Internet. Disponível em: <http://www.wgig.org>. Acesso em 16.01.2006.
WORLD WIDE WEB CONSORTIUM. Web site do World Wide Web Consortium. Disponível em: <http://www.w3.org/>. Acesso em 16.01.2006.
WU, T. Application-Centered Internet Analysis. New York: Columbia Law Review, 1999. Disponível em: <http://papers.ssrn.com/sol3/Delivery.cfm/99033015.pdf?abstractid=157928&mirid=2>. Acesso em 16.01.2006.