SlideShare a Scribd company logo
1 of 59
ANDRESSA WARKEN

SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE:
LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO

NOVO HAMBURGO
2013
2
ANDRESSA WARKEN

SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE:
LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO

Monografia apresentada como requisito parcial
para a obtenção do título de Bacharel em
Comunicação Social, Habilitação em Jornalismo,
no Curso de Comunicação Social da
Universidade Feevale, de Novo Hamburgo.

Professora orientadora: Profa. Dra. Sandra Portella Montardo

Novo Hamburgo
2013
3
ANDRESSA WARKEN

Monografia apresentada como Trabalho de Conclusão do Curso de Comunicação
Social, Habilitação em Jornalismo, com título “Search Engine Optimization em
redações online: levantamento de experiências no Jornalismo Brasileiro”, submetido
ao corpo docente da Universidade Feevale como requisito necessário para a
obtenção do Grau de Bacharel em Comunicação Social – Habilitação em
Jornalismo.

Aprovado por:

__________________________
Profa. Dra. Sandra Portella Montardo Professora Orientadora

__________________________
Thiago Mendes Banca Examinadora

__________________________
Willian Araújo Banca Examinadora

Novo Hamburgo, novembro de 2013.
4

RESUMO
Esta pesquisa investiga o uso das técnicas de Search Engine Optimization
nas redações online, considerando o relato de experiências de profissionais da área
familiarizados com o tema em questão. Os autores que fundamentam este estudo
são Castells (2003), Fragoso (2007), Felipini (2010), Palacios (2003), Quadros
(2002), Pereira e Adghirni (2011), Corrêa e Bertocchi (2012), e outros. O objetivo
geral foi levantar as experiências e práticas de jornalistas brasileiros em relação ao
Search Engine Optimization. Como objetivos específicos, buscou-se conhecer a
história da Internet e do Jornalismo Online; conhecer as técnicas básicas de SEO e
verificar quais as práticas recomendáveis e o conhecimento necessários aos
jornalistas nesse assunto. As considerações finais apontam que os grandes grupos
de comunicação já estão atentos às possibilidades da aplicação de SEO para a
geração de tráfego aos sites de notícia. Verificou-se ainda que o conhecimento em
SEO não é ainda um pré-requisito, mas sim um diferencial, para os jornalistas que
pretendem atuar em redações online.
Palavras-chave:
otimização para busca.

Jornalismo

Online,

SEO,

mecanismos

de

busca,
5

ABSTR AC T
This research investigates the use of the SEO’s techniques in Online
Journalism. The authors that underlie this study are Castells (2003), Fragoso (2007),
Felipini (2010), Palacios (2003), Quadros (2002), Pereira e Adghirni (2011), Corrêa e
Bertocchi (2012) and others. The overall goal was to raise the experiences and
practices of Brazilian journalists in Search Engine Optimization. The specific
objectives are to know the history of the Internet and Online Journalism; to know the
basic techniques of SEO and check the best practices and the knowledge required of
the journalists on this subject. The conclusions point that the big media groups are
aware of the possibilities in applying SEO to generate traffic to news sites. The
conclusions point out that . It was observed, too, that SEO knowledge is still not a
prerequisite, but a differential for journalists who intend to work in online newsrooms.
Keywords: Online Journalism, SEO, serch engines, search optimization.
6

SUMÁRIO

INTRODUÇÃO.................................................................................................7
1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA............................9
1.1 INTERNET E WEB.................................................................................9
1.2 MECANISMOS DE BUSCA.................................................................13
1.2.1 Funcionamento dos mecanismos de busca...................................17
1.3 O QUE É SEO?....................................................................................19
1.3.1 SEO on-page.................................................................................20
1.3.2 SEO off-page.................................................................................25
2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER
JORNALÍSTICO.........................................................................................................27
2.1 CARACTERÍSTICAS DO JORNALISMO ONLINE..............................27
2.2 BREVE HISTÓRICO DO JORNALISMO ONLINE...............................29
2.3 MUDANÇAS NO FAZER JORNALÍSTICO..........................................36
3 MÉTODO E ANÁLISE................................................................................43
3.1 PROCEDIMENTOS METODOLÓGICOS............................................43
3.2 RESULTADOS: APLICAÇÃO DAS TÉCNICAS DE SEO NAS
REDAÇÕES ONLINE..............................................................................................46
3.3 DISCUSSÃO DOS RESULTADOS......................................................51
CONSIDERAÇÕES FINAIS...........................................................................54
REFERÊNCIAS.............................................................................................55
ANEXO A – ENTREVISTA ESTRUTURADA COM PROFISSIONAIS..........59
7

INTRODUÇÃO

A World Wide Web se desenvolveu rapidamente e o número de páginas
cresce substancialmente ano após ano. Nesse sentido, os mecanismos de busca
surgiram como uma forma de organizar toda esta informação disponível na rede. O
primeiro indexador de páginas surgiu em 1990 e se chamava Archie. Em 1999, um
novo mecanismo de busca chamado Google (ainda em versão beta) se tornou
amplamente conhecido, por utilizar um algoritmo de classificação inovador.
Com o passar dos anos, o mercado de buscas foi crescendo e uma boa
colocação nas páginas de resultados dos mecanismos de busca tornou-se cada vez
mais cobiçada. O funcionamento dos mecanismos foi sendo aprimorado e seus
algoritmos passaram a ser cada vez mais secretos e exatos, o que estimulou o
surgimento da indústria de SEO, que consiste em um conjunto de técnicas e
métodos para alcançar uma boa indexação nos mecanismos de busca.
Atentas a esse movimento, equipes responsáveis por sites, inclusive sites de
notícia, passaram a atentar mais para questões como a arquitetura de informação e
a otimização de seu conteúdo. Nesse ponto, que entra o papel do jornalista. Quais
as práticas das redações online brasileiras em relação ao Search Engine
Optimization? É justamente esse questionamento que o presente trabalho busca
responder.
O objetivo geral desta pesquisa é levantar as experiências e práticas de
jornalistas brasileiros em relação ao Search Engine Optimization. Já os objetivos
específicos são conhecer a história da Internet e do Jornalismo Online; conhecer as
técnicas básicas de SEO e verificar quais as práticas recomendáveis e o
conhecimento necessário aos jornalistas quanto a esse assunto.
Para dar conta dos objetivos do trabalho, a abordagem metodológica
adotada baseou-se em uma revisão literária, apoiada pela realização de entrevista
estruturada com quatro profissionais que atuam com Search Engine Optimization em
sites de grandes grupos de comunicação.
O primeiro capítulo apresenta “A Internet, a web e os mecanismos de
busca”, em que se traz a evolução da internet e dos mecanismos de busca, a partir
de dados históricos. O Search Engine Optimization, um dos motes principais deste
estudo, também é apresentando, reunindo as principais técnicas utilizadas. Os
8

principais autores utilizados neste capítulo são Castells (2003), Fragoso (2007) e
Felipini (2010).
O segundo capítulo apresenta o “Jornalismo Online”.

Inicialmente, são

levantados dados históricos e características dessa prática e, em um segundo
momento, as mudanças que ocorreram tanto no perfil comportamental dos
consumidores de notícias quanto nas rotinas produtivas dos jornalistas. Nesse
capítulo, os principais autores utilizados são Palacios (2003), Quadros (2002),
Pereira e Adghirni (2011) e Corrêa e Bertocchi (2012).
No terceiro capítulo, apresenta-se os procedimentos metodológicos, as
respostas da entrevista estruturada e uma análise dessas respostas de modo geral.
Para finalizar, estabelece-se uma conexão dos resultados obtidos com a literatura
consultada.
9

1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA

A fim de mapear as práticas de Search Engine Optimization no Jornalismo
Online brasileiro, o foco deste primeiro capítulo será internet, mecanismos de busca
e SEO. No primeiro item tratar-se-á do surgimento da internet e de sua evolução
para a World Wide Web. No segundo item, entrarão em pauta os mecanismos de
busca e a forma como eles foram sendo aperfeiçoados ao longo dos anos. Na
sequência, será abordado o funcionamento dos mecanismos, oferecendo aos
leitores o embasamento adequado para compreender a importância das técnicas de
SEO para o Jornalismo Online, foco do capítulo seguinte.

1.1 INTERNET E WEB

Arpanet era como se chamava a primeira rede de computadores, que entrou
em funcionamento em 1° de setembro de 1969. Ela surgiu a partir de um trabalho de
uma instituição de pesquisa do Departamento de Defesa dos Estados Unidos
chamada ARPA (Advanced Research Projects Agency). O principal objetivo dessa
instituição era “mobilizar recursos de pesquisa, particularmente do mundo
universitário, com o objetivo de alcançar superioridade tecnológica militar em relação
à União Soviética na esteira do lançamento do primeiro Sputnik em 1957”
(CASTELLS, 2003, p. 13). O departamento da ARPA que esteve envolvido no
desenvolvimento da Arpanet chamava-se IPTO (Information Processing Techniques
Office) e visava ao estímulo da pesquisa em computação interativa.
Para montar a rede, os pesquisadores utilizaram a tecnologia de “comutação
por pacote”, desenvolvida independentemente por Paul Baran da Rand Corporation
(centro de pesquisas californiano que trabalhava para o Pentágono à época) e por
Donals Davies do British National Physical Laboratory. A Arpanet foi desenvolvida
para “permitir aos vários centros de computadores e grupos de pesquisa que
trabalhavam para a agência compartilhar on-line tempo de computação”, sendo que
os primeiros nós da rede estavam na Universidade da Califórnia em Los Angeles, no
SRI (Standford Research Intitute), na Universidade da Califórnia em Santa Barbara e
10

na Universidade de Utah, segundo Castells (2003). Ainda de acordo com o autor, o
passo seguinte da ARPA “foi tornar possível a conexão da Arpanet com outras redes
de computadores, a começar pelas redes de comunicação que a ARPA estava
administrando, a PRNET e a SATNET”.
Foi no ano de 1973 que a arquitetura básica da Internet foi delineada, por
meio de um artigo elaborado pelos cientistas da computação Robert Kahn (da
ARPA) e Vint Cerf (da Universidade de Standford). Este artigo definia que, para
estabelecer comunicação entre si, as redes de computadores necessitavam de
protocolos de comunicação padronizados.
Em 1978, Vint Cerf, Jon Postel e Steve Crocker, trabalhando na
Universidade da Califórnia, dividiram o TCP (protocolo de controle de
transmissão) em duas partes, acrescentando um protocolo intra-rede (IP), o
que gerou o TCP/IP, o padrão segundo o qual a Internet continua operando
até hoje (CASTELLS, 2003, p. 14-15).

Dois anos após, em 1975, a Arpanet foi transferida para a DCA (Defense
Communication Agency), que criou a Defense Data Network com o intuito de tornar
a comunicação por computador disponível aos vários ramos das Forças Armadas.
Já “em 1983, o Departamento de Defesa, preocupado com possíveis brechas na
segurança, resolveu criar o MILNET, uma rede independente para usos militares
específicos”. (CASTELLS, 2003, p.14). Depois disso, a Arpanet ganhou o nome de
ARPA-INTERNET e passou a ser usada exclusivamente para fins de pesquisa.
Em 1984, A NSF (National Science Foundation) montou sua própria rede de
comunicação entre computadores, a NSFNET, que quatro anos depois passou a
utilizar a infraestrutura física da rede da ARPA-INTERNET. E quando a Arpanet se
tornou tecnologicamente obsoleta, o governo dos EUA confiou sua administração à
NSF; a qual na sequência encaminhou a privatização da Internet. À época, “a
maioria dos computadores nos EUA tinha capacidade de entrar em rede, o que
lançou os alicerces para a difusão da interconexão de redes” (CASTELLS, 2003, p.
15).
A NSFNET foi extinta em 1995, o que abriu caminho para a operação privada
da Internet. E essa “rede global de redes de computadores” cresceu rapidamente, já
que, no início da década de 1990, muitos provedores de serviços da Internet já
possuíam suas próprias redes e estabeleciam suas portas de comunicação em
bases comerciais.
11

Além da contribuição da Arpanet, o formato atual da Internet foi resultado de
uma tradição de base de formação de redes de computadores. Um dos fatores
influentes foi o BBS (Bulletin Board Systems): um movimento que surgiu da
interconexão de computadores pessoais no final da década de 1970.
Em 1977, dois estudantes de Chicago, Ward Christensen e Randy Suess,
escreveram um programa, que batizaram de MODEM, que permitia a
transferência de arquivos entre seus computadores pessoais; em 1978
fizeram um outro, o Computer Bulletin Board System, que permitia aos
computadores armazenar e transmitir mensagens (CASTELLS, 2003, p.16).

Já em 1983, o programador Tom Jennings iniciou uma rede de BBS chamada
de FIDONET, que é até hoje a rede de comunicação por computadores mais barata
e acessível do mundo, por se basear em PCs e ligações por linhas telefônicas
convencionais. Outra tendência decisiva para a formação de redes de computadores
veio da comunidade dos usuários do UNIX, sistema operacional desenvolvido pelos
Laboratórios Bell, liberado para as universidades em 1974. “O sistema logo se
tornou a língua franca da maior parte dos departamentos de ciência da computação
e os estudantes logo se tornaram peritos na sua manipulação” (CASTELLS, 2003,
p.16).
Com base no programa UUCP (UNIX-to-UNIX copy) da Bell, que permitia que
computadores copiassem arquivos uns dos outros; em 1979, quatro estudantes da
Carolina do Norte projetaram um programa para comunicação entre computadores
UNIX.
Uma versão aperfeiçoada desse programa foi distribuída gratuitamente
numa conferência de usuários de UNIX em 1980. Isso permitiu a formação
de redes de comunicação entre computadores – a Usenet News - fora do
backbone (infraestrutura física) da Arpanet (CASTELLS, 2003, p.16).

Em 1980, quando a Usenet News chegou ao departamento de ciência da
computação da Universidade da Califórnia em Berkeley, um grupo de estudantes de
pós-graduação empenhou-se em desenvolver uma ponte entre a Arpanet – que já
possuía um nó na universidade – e a Usenet.

“Dali em diante, a Usenet ficou

vinculada à Arpanet, as duas tradições gradualmente se fundiram e várias redes de
computadores passaram a poder se comunicar entre si” (CASTELLS, 2003, p. 1617). Dessa maneira, essas redes finalmente se congregaram na forma da Internet.
No entanto, a difusão da Internet na sociedade em geral ocorreu somente
após o desenvolvimento da World Wide Web. O projeto de um sistema global de
12

hipertexto foi iniciado em 1989, por um grupo de pesquisadores chefiado por Tim
Berners-Lee e Robert Cailliau, no CERN, o Laboratório Europeu para a Física de
Partículas, localizado em Genebra. Berners-Lee “definiu e implementou o software
que permitia obter e acrescentar

informação de e para qualquer computador

conectado através da Internet: HTTP, MTML e URI (mais tarde chamado URL)”
(CASTELLS, 2003, p. 18). Em 1993, segundo Fragoso (2007), o CERN decidiu abrir
mão do direito de propriedade dos códigos básicos do projeto, tornando a WWW um
domínio público.
Em meados da década de 1990, a Internet estava privatizada e dotada de
uma arquitetura técnica aberta, que permitia a interconexão de todas as
redes de computadores em qualquer lugar do mundo; a WWW podia então
funcionar com software adequado, e vários navegadores de uso fácil
estavam à disposição do público (CASTELLS, 2003, p. 19).
No final de 1995, o primeiro ano de uso disseminado da World Wide Web,
havia cerca de 16 milhões de usuários de redes de comunicação por
computador no mundo (CASTELLS, 2003, p. 8).

Em relação à Internet no Brasil, segundo Limeira (2003), até 1988 as
universidade brasileiras se conectavam às redes internacionais de pesquisa por
meio da rede BITNET (uma contração da expressão Because it’s Time Network) que
era uma rede de correio eletrônico. Ainda segundo o autor, em 1989, o Ministério da
Ciência e Tecnologia formou um grupo com representantes do CNPq (Conselho
Nacional de Desenvolvimento Científico e Tecnológico), da Finep (Financiadora de
Estudos e Projetos), da FAPESP (Fundação de Amparo à Pesquisa do Estado de
São Paulo), da Faperj (Fundação Carlos Chagas Filho de Amparo à Pesquisa do
Estado do Rio de Janeiro) e da Fapergs (Fundação de Amparo à Pesquisa do
Estado do Rio Grande do Sul) para discutir a
interligasse

as

principais

universidades,

implantação de uma rede que

órgãos

governamentais

e

não-

governamentais e instituições de pesquisa. O resultado foi o surgimento da RNP
(Rede Nacional de Pesquisa) em setembro de 1989.
O modelo de prestação de serviços de redes operado pela RNP foi
concebido para dar suporte à introdução da tecnologia de rede Internet no
país, bem como sua difusão e capilarização por meio do apoio à
implantação de redes estaduais (LIMEIRA, 2003, p. 29).

Em 1993, após montado o backbone (infraestrutura física) da rede, a RNP já
atendia 11 estados brasileiros, com conexões em velocidade de 9,6 a 64 Kbps. Até
13

1996, implantou-se a Fase II do projeto, com uma infraestrutura mais veloz que a
anterior. Nessa época, o RNP deixou de ser um backbone restrito ao meio
acadêmico, estendendo seus serviços de acesso a todos os setores da sociedade.
Assim, “ofereceu um importante apoio para a consolidação da Internet comercial no
Brasil, que teve início em maio de 1995” (LIMEIRA, 2003, p. 30).
Dessa forma, tanto no Brasil, quanto em todo o mundo, a Web se
desenvolveu rapidamente e o número de páginas indexáveis (acessíveis aos
mecanismos de busca) foi aumentando substancialmente a cada ano. Para se ter
uma idéia, em 1999, haviam em torno de 800 milhões de páginas indexáveis na web
(LAWRENCE; GILES, 1999, apud FRAGOSO, 2007, p.2). No ano seguinte, mais de
dois bilhões (MURRAY, 2000, apud FRAGOSO, 2007, p.2). E em janeiro de 2005, já
eram pelo menos 11,5 bilhões de páginas (GULLI; SIGNORINI, 2005, apud
FRAGOSO, 2007, p.2). Com isso, tornou-se necessária uma forma de organização
dessas páginas para facilitar a pesquisa pelos usuários e, a partir dessa
necessidade, surgiram os mecanismos de busca.

1.2 MECANISMOS DE BUSCA

O primeiro indexador de páginas surgiu em 1990, antes mesmo da World
Wide Web, e ele se chamava Archie. Ele “reunia informações de arquivos
disponíveis em servidores FTP (File Transfer Protocol)1 anônimos e os mantinha
atualizados checando os dados em intervalos de até 30 dias” (FRAGOSO, 2007, p.
3). Em 1992, foi lançado o Veronica, que era um banco de dados que reunia os
menus dos servidores Gopher, permitindo a realização de buscas por tópico
(palavra-chave) ao invés de por servidor (como era inerente ao sistema), segundo a
autora. O Gopher é um protocolo de redes de computadores que foi desenhado para
distribuir, procurar e acessar documentos na Internet; criado por Paul Lindner e Mark
McCahill na Universidade de Minesota. As informações acessadas através do
Gopher ficam localizadas em servidores apropriados nos quais roda um programa

1

Servidor que fornece, através de uma rede de computadores, um serviço de acesso para usuários a
um disco rígido ou servidor de arquivos através do protocolo de transferência de arquivos.
14

que as organiza por assunto e as disponibiliza organizadas em uma estrutura
hierárquica na forma de menus (diretórios).
No ano seguinte, foi criado o Jughead que introduziu a possibilidade de
realizar buscas booleanas. “Em ciência da computação, booleano é um tipo de
dado primitivo que possui dois valores, que podem ser considerados como 0 ou 1,
verdadeiro ou falso”2. Desde o ano anterior, já estava também em operação o WAIS
(Wide Area Information Server), que reunia características do Gopher e dos
buscadores que nele operavam e havia sido desenvolvido por iniciativa conjunta de
quatro empresas. “Com o WAIS, era possível realizar buscas em bases de dados
remotas, cujos resultados eram organizados em ordem decrescente de frequência
das palavras-chave” (FRAGOSO, 2007, p. 3).
Em 1993, alguns meses após o lançamento do primeiro browser para
Windows, o X Windows Mosaic, já surgiu o primeiro webrobot3: o World Wide Web
Wanderer. O intuito inicial era mapear toda a Web, mas isto já era matematicamente
impossível. Ainda no mesmo ano, surgiram mais três webrobots: JumpStation,
WWW-Worm e RBSE.
O Worm indexava os títulos e endereços das páginas, enquanto o
JumpStation inovou ao arquivar também os cabeçalhos. Ambos
apresentavam os resultados na ordem em que os encontravam. O RBSE foi
o primeiro a implementar um sistema de ranqueamento baseado na
relevância relativa à expressão utilizada para a busca (MAULDIN, 1997;
WALL, 2006 apud FRAGOSO, 2007, p. 4).

O primeiro indexador projetado especificamente para a Web surgiu também
em 1993. Inspirado pelo Archie, o Aliweb contava com um banco de dados cujas
informações eram fornecidas diretamente por webmasters4. “Isso permitia que o
sistema arquivasse descrições das páginas, que eram alimentadas pelos próprios
criadores, mas por outro lado tornava a qualidade e atualidade do banco de dados
dependentes da boa vontade de terceiros” (FRAGOSO, 2007, p. 4-5). Já o primeiro
diretório pesquisável foi o Galaxy. Ainda segundo Fragoso (2007), o Galaxy listava
apenas URLs (Uniform Resource Locator) que tinham sido fornecidas diretamente,
organizando os endereços em categorias e sub-categorias e permitindo que os
usuários restringissem a busca a sub-áreas de sua base de dados, o que acelerava
e tornava mais preciso o processo.
2

Disponível em http://pt.wikipedia.org/wiki/Booleano.
Programa que percorre a web passando de um documento para outro através dos hiperlinks.
4
Profissionais responsáveis pelo webdesign e desenvolvimento de uma página na web.
3
15

Já em 1994, surgiu o WebCrawler, “um bot capaz de associar o registro do
conteúdo completo das páginas à funcionalidade do rastreamento automático”, por
meio da indexação vetorial5. Depois do WebCrawler, outros sistemas de busca foram
aperfeiçoando suas funcionalidades e abrangência. O Lycos surgiu em 1994 e
ganhou destaque, pois organizava os resultados das buscas conforme a relevância,
permitia consultas por prefixo e dava bônus por proximidade entre palavras, de
acordo com Fragoso (2007). O peso do banco de dados era aliviado por meio da
estratégia de não arquivar o conteúdo completo das páginas, mas apenas um
resumo gerado automaticamente a partir das 100 palavras-chave mais frequentes
em cada página, combinadas com as palavras do título, do cabeçalho e as 20
primeiras linhas ou os primeiros 10% do documento.
Com o passar dos anos e o aumento constante do tráfego, os investidores
começaram a se dar conta das possibilidades da publicidade online, interessando-se
em incluir banners e pequenos anúncios nas páginas de entrada dos sites. Então,
buscando intensificar o fluxo de público para atrair mais anunciantes, muitos
sistemas de busca “assumiram o formato de portal, passando a oferecer uma
variedade de serviços” (FRAGOSO, 2007, p. 6). Foi o caso do Yahoo!, que começou
em 1994, como uma lista de sites favoritos elaborada por dois primeiranistas de
doutorado da Universidade de Stanford. Nessa época, fazer listas de favoritos na
Web era algo bastante comum, o diferencial do Yahoo! É que ele disponibilizava
breves descrições das páginas.
Com o aumento do número de indicações, a lista tornou-se pouco amigável
e os autores criaram uma estrutura de árvore (categorias e sub-categorias),
conferindo ao Yahoo! o perfil de um diretório. Para responder ao
crescimento da popularidade da lista, adicionaram também uma ferramenta
de busca e passaram a aceitar inscrições de websites que desejassem
figurar em seu banco de dados. Com menos de um ano de funcionamento,
a página do Yahoo! celebrou seu milionésimo acesso, com visitantes vindos
de quase 100 mil endereços distintos (YAHOO! MEDIA RELATIONS, 2005
apud FRAGOSO, 2007, p. 6).

Em 1995 surgiu o AltaVista, que era mais rápido que as outras ferramentas
disponíveis na época, prometia aos webmasters atualizar as informações recebidas
em, no máximo, 24 horas e permitia buscas “a partir de perguntas, buscas em
newsgroups, buscas específicas por palavras associadas a imagens, títulos e outros
5

Na indexação vetorial, documentos em linguagem natural são representados por meio de vetores,
ou seja, as palavras-chave (termos de busca) recebem características vetoriais. O sistema avalia a
relevância dos documentos de acordo com sua relação espacial com as palavras-chave buscadas.
16

campos do código HTML e buscas por inlinks” (FRAGOSO, 2007, p. 6). Possuía
ainda um campo de dicas logo abaixo da área de busca, o que ajudou a aumentar a
fidelidade à ferramenta.
Rapidamente, os mecanismos de busca se tornaram os principais veículos
para a publicidade online. Conforme Fragoso (2007), as alternativas eram as
seguintes: inclusão paga, em que o webmaster pagava para garantir que seu site
fosse incluído no banco de dados da ferramenta de busca ou diretório; a
classificação paga, em que o buscador garantia que o site figuraria entre os
primeiros resultados das buscas por uma ou várias palavras; e seleção paga (payper-click), em que o anunciante só paga quando o usuário clica no link para seu site.
Já que foram surgindo dezenas de mecanismos de busca e cada um cobria
porções diferentes da web; em 1995, surgiram as ferramentas de meta-busca, que
permitiram buscar em vários sistemas de busca ao mesmo tempo. O ponto negativo
era que elas desviavam o público das demais páginas, afastando delas os
anunciantes.
Em paralelo à manipulação dos resultados das buscas pela inserção de
resultados pagos, surgiram também os spams: resultados na busca que nada tinham
a ver com o que o usuário estava buscando. Para evitar isso, “os sistemas de busca
desenvolviam estratégias de indexação e classificação cada vez mais sofisticadas”
(FRAGOSO, 2007, p. 8). Àquela altura, a disputa pelo mercado de buscas parecia
girar em torno do tamanho dos bancos de dados. Muitas das pequenas ferramentas
foram compradas por “buscadores maiores, interessados tanto em aumentar ainda
mais seus bancos de dados quanto, muitas vezes, em particularidades dos
rastreadores e sistemas de classificação” (FRAGOSO, 2007, p. 8).
Enquanto isso, no mundo acadêmico, estava em gestão um sistema de
classificação que recolocava no centro da cena uma das características mais
interessantes do Lycos: a “heurística de popularidade” (MAULDIN, 1997 apud
FRAGOSO, 2007, p. 8). A estratégia foi aperfeiçoada no BackRub, projeto de
doutorado de Larry Page e Sergey Brin na Universidade de Stanford, que pretendia
melhorar a forma como os mecanismos de busca classificavam os resultados e
reduzir ao máximo o tempo gasto pelos internautas para encontrar o que buscavam.
Ele classificava os resultados de acordo com o número de back links que cada site
recebia, assim a metodologia era baseada nas respostas que a própria Internet
fornecia. O projeto cresceu rapidamente e foi renomeado Google.
17

A princípio, Page e Brin não pareciam estar interessados em criar uma
empresa em torno de seu novo buscador, tanto é que tentaram vendê-lo ainda em
1998, sem sucesso. Um ano mais tarde, o Google continuava em versão beta, mas
já havia se tornado amplamente conhecido por utilizar um algoritmo de classificação
inovador e não incluir apenas resultados pagos entre os resultados orgânicos.
Outros pontos fortes do Google eram a velocidade das buscas e a
simplicidade da interface (começando pela ausência de banners e outro
material publicitário, o que levava a página inicial a carregar muito mais
rápido que a dos outros sites de busca). Ao final de 2000, o Google
começou a exibir alguns resultados pagos, mas, ao contrário da maioria das
outras ferramentas, não os mesclou com os resultados orgânicos. Àquela
altura, o Google já havia se estabelecido como o melhor sistema de buscas
na mente do público (FRAGOSO, 2007, p. 9).

Atualmente, o Google é o site de buscas líder do mercado, com cerca de 50
bilhões de buscas por mês no Google, em todo o mundo. “O Google tem 71% do
mercado de buscas online nos Estados Unidos e 60% do mercado mundial, sendo
que 97% de seu faturamento é originário dos anúncios através de links
patrocinados” (FELIPINI, 2010, p. 7).
Percebe-se assim, que os sites de busca começaram como catálogos de
páginas no formato digital e evoluíram, passando a utilizar novas formas de
classificação de páginas e organização de resultados. Para compreender melhor
esta evolução, abordar-se-á a seguir o funcionamento dos mecanismos de busca.

1.2.1 Funcionamento dos mecanismos de busca

Os primeiros mecanismos de busca eram catálogos de páginas na web, cujas
informações eram incluídas por uma equipe de profissionais. Kendzerski (2005, p.
98) explana que, além da demora para que um site constasse no catálogo, como a
organização das respostas era feita com base na ordem alfabética, muitas vezes os
sites desejados ficavam longe do topo dos resultados.
Depois vieram os spiders, softwares que vasculham a internet, colhendo
dados das páginas e as anexando ao banco de dados dos mecanismos de busca.
“Esses dados são fornecidos através da otimização do site (inserção de metatags e
outras informações que são colocadas especialmente nas páginas por seus
18

desenvolvedores)” (KENDZERSKI, 2005, p. 99). Essa varredura é feita inicialmente
na primeira página do site e, conforme o robô encontra links para outras páginas, ele
vai incluindo essas páginas na varredura.
Uma vez que o robô varreu todo o site, ele copia os textos que encontrou
para o banco de dados da ferramenta de busca. Com seus textos em mãos,
os computadores da ferramenta de busca associam as palavras
encontradas no texto a seu endereço (URL), e com as palavras encontradas
no texto criam uma gigantesca biblioteca de palavras-chave (TORRES,
2009, p. 93).

Na sequência, passou-se a utilizar taxonomia, para fornecer resultados
restritos dentro da área de interesse do internauta. E surgiram também os
metabuscadores: “sistemas que buscam as informações em outros mecanismos de
busca, compilando os resultados obtidos” (KENDZERSKI, 2005, p. 101).
Em 1998, o americano Bill Gross, fundador do GoTo.com, começou a
oferecer resultados (de busca) pagos e leilão de palavras. “A empresa foi rebatizada
de Overture em 2001 e depois adquirida pelo Yahoo! em 2004. Foi com base nesse
modelo que o Google criou o Google Adwords e o conceito de links patrocinados”
(TORRES, 2009, p. 302). Com isso, “a tela de resultados dos principais sites de
busca passou a apresentar dois tipos de informação: o resultado orgânico ou
gratuito com páginas classificadas por relevância e os anúncios pagos, chamados
de Links Patrocinados” (FELIPINI, 2010, p. 7). Os links patrocinados funcionam da
seguinte forma: quanto maior o lance oferecido, mais alta será a classificação do
site, sendo que as palavras com maior procura exigirão também lances maiores.
Atualmente, os principais sites de busca utilizam algoritmos que consideram
vários critérios, cada um com um peso específico, para definir a importância de uma
página e seu posicionamento nos resultados de busca. “Cada site de busca possui
seu próprio algoritmo, principalmente no que se refere ao peso de cada variável, por
esse motivo uma mesma página pode ter posicionamentos distintos em cada um
deles” (FELIPINI, 2010, p. 11). Esses algoritmos são alterados esporadicamente e
alguns mecanismos de busca já oferecem cursos (principalmente para empresas)
em que explicitam cada um de seus critérios.
Um algoritmo pode ser definido como uma sequência finita de passos
(instruções) para resolver um determinado problema. Sempre que é desenvolvido
um algoritmo, é estabelecido um padrão de comportamento que deverá ser seguido
uma norma de execução de ações) para alcançar o resultado de um problema.
19

Atualmente, os algoritmos tem sido utilizados também para personalizar o conteúdo
disponível de acordo com as preferências de cada usuário. No entanto, essa
utilização tem sido criticada por alguns estudiosos, como Eli Pariser no livro “O filtro
invisível”. Na obra, o autor afirma que esse excesso de personalização tende a
deixar os usuários “unidirecionais” e limitar seus pontos de vista por meio de um
“filtro-bolha”, em que os algoritmos assumem o papel de curadores de informação,
valorizando os tipos de informação em que o usuário mais clica e deixando de lado
outros conteúdos que poderiam também interessar ao usuário, mesmo não sendo de
sua preferência.
E é ao estudo desses algoritmos e de sua utilização que se dedica a indústria
de SEO (Search Engine Optimizaton): a otimização de sites e de seu conteúdo em
busca de uma melhor colocação entre os resultados de busca (de forma orgânica).

1.3 O QUE É SEO?

A preferência dos usuários pelos websites que constam entre os primeiros
resultados de suas buscas estimulou o desenvolvimento da indústria de SEO
(Search Engine Optimization). A SEO ou otimização para mecanismos de busca
consiste em “um conjunto de técnicas, métodos e/ou estudos que visam melhorar o
posicionamento das páginas no mecanismo de busca”6. “A SEO nasceu da simples
observação de que estar listado entre os mais altos resultados no Google se traduz
diretamente em dinheiro” (BATTELLE, 2006, p. 136). Em suma, o objetivo principal

da SEO é angariar novos visitantes já que, com mais visitas, aumentam as
chances de conversão. Logo, com um bom trabalho de SEO, é possível
aumentar as vendas, o número de visualizações da página ou de assinantes de
feeds, etc.
Segundo Fábio Ricotta, criador do site MestreSeo (atual Agência Mestre), o
termo foi usado pela primeira vez pela empresa MMG (Multimedia Marketing Group)
de John Audette, cujo objetivo era aplicar métodos que fizessem com que um
website conseguisse um posicionamento nos resultados de busca melhor que o dos
concorrentes. Inicialmente, a indústria de SEO não tinha plena certeza de quais
6

Disponível em http://www.agenciamestre.com/seo/o-que-e-seo.
20

seriam as técnicas legais e quais seriam ilegais, até por que mecanismos de busca
como o Google sempre mantiveram seus algoritmos sob sigilo. Com isso, à época,
muitas empresas que pagavam às indústrias de SEO para otimizar sua colocação
entre os resultados de busca acabavam com os sites banidos do índice dos
mecanismos de busca, por causa das práticas ilegais aplicadas.
Já que as ferramentas de busca consistem em um elemento-chave no
processo de localização de sites, é importante que o desenvolvedor de interface ou
webdesigner garanta que o site tenha uma estrutura que facilite a varredura pelo
mecanismo e que os conteúdos sejam escritos buscando melhorar o posicionamento
do site nos resultados de busca. Outro ponto é a otimização do conteúdo, com o
objetivo de levar o conteúdo certo para a busca correspondente, no intuito de
seduzir e converter novos leitores. “Por mais que você anuncie na mídia online
publicando banners em grandes portais, a grande maioria dos acessos começará
mesmo pela busca de palavras-chave” (TORRES, 2009, p. 72).
Segundo o site MestreSEO, as técnicas e métodos de SEO podem ser
divididas em SEO on-page e SEO off-page, sobre as quais iremos abordar nos
subitens a seguir.

1.3.1 SEO on-page

SEO on-page é a otimização para mecanismos de busca realizada
internamente no site. Os principais fatores de SEO on-page são: meta tags, heading
tags, atributo alt, domínio, URLs amigáveis e conteúdo.
As meta tags são linhas de código HTML que descrevem o conteúdo do site
para os mecanismos de busca. As principais meta tags são: meta keywords, title tag
e meta description. Cada uma delas possui regras específicas para serem
elaboradas adequadamente, sobre as quais irá se tratar na sequência. Uma regra
geral é que cada uma possui uma quantidade ideal de caracteres, sendo que a
Agência Mestre disponibiliza em seu site, inclusive, um contador de caracteres7,
ferramenta que muito pode auxiliar na elaboração das meta tags.

7

Disponível em: http://www.agenciamestre.com/ferramentas-seo/tamanho-do-texto.
21
Para uma pessoa, a meta tag precisa ser chamativa, interessante,
informativa, curiosa e com um toque de CALL-FOR-ACTION. Para um
buscador, a meta tag precisa de uma dose de palavras-chave para que o
algoritmo da ferramenta de busca classifique bem a página. O essencial no
desenvolvimento de meta tags é achar o meio termo entre esses dois lados
(MARCEL, 2009).

Uma das primeiras ordens ao se iniciar a otimização de um site para as
buscas é escolher as principais palavras-chave, pensando no que os usuários
poderão buscar. A partir disso, pode-se escolher as palavras a serem evidenciadas
em títulos, texto, descrição de imagens, domínio, etc. Conforme orienta Felipini
(2010), pode-se incluir também o nome da empresa ou de produtos, palavras
sinônimas ou utilizadas regionalmente. Se a palavra for homônima, ou seja, tiver
sonoridade ou grafia igual à de outra palavra, o ideal é usá-la em conjunto com outra
palavra mais explicativa. No caso da palavra “pet” por exemplo, ela pode significar
tanto animais de estimação quanto garrafas de plástico reciclável.
Quanta à frequência de uso das palavras-chave no texto é relevante destacar
que os mecanismos de busca fazem uma contagem do número de vezes em que a
palavra-chave apareceu e também do total de palavras em cada página. O primeiro
número dividido pelo segundo fornecerá a frequência relativa daquela palavra. “Por
exemplo, se a palavra apareceu 8 vezes e o total de palavras da página é 100, a
frequência relativa é 8/100, o que equivale a 8%” (FELIPINI, 2010, p. 35). Cada
mecanismo de busca possui um número ideal de frequência de cada palavra no
texto. Felipini destaca que “se você incluir a palavra-chave num percetual entre 3% e
6% estará relativamente seguro. Muito acima disso, sua página corre o risco de ser
penalizada” (FELIPINI, 2010, p. 35). O autor pontua ainda que o excesso de
repetição das palavras-chave pode tornar a leitura do texto enfadonha.
Também é possível verificar qual é o potencial de busca das palavras-chave
escolhidas, através de uma ferramenta do Google, a Keyword Tool 8. Apesteguy
(2013) explana que, após escolher as palavras-chave, pode-se verificar o número de
resultados retornados pelo mecanismo de pesquisa, para se ter uma noção do grau
de dificuldade que se terá para que a página fique bem posicionada nos resultados
de busca. Segundo Alvarez (2012), nas redações online, outra ferramenta utilizada
para avaliar a potencialidade de novas notícias é o Google Trends, disponível em
http://www.google.com/trends/. Um pouco mais aprimorado do que o Google Trends,
o Google Insights for Search oferece um serviço mais detalhado para os jornalistas
8

Disponível em https://adwords.google.com.br/keywordtool
22

que querem encontrar palavras mais adequadas para regiões específicas ou até
mesmo fazer comparações mais profundas de palavras para notícias nacionais.
Combinar as ferramentas é também uma ótima opção. É possível usar a
Keyword Tool, selecionar as melhores e levar até o Google Trens ou o
Google Insights for Search e lá decidir qual é a que irá ter o melhor
resultado (ALVAREZ, 2012, p. 16).

As title tags ou títulos das páginas são as palavras que aparecem na barra de
navegação do navegador quando se entra na página. Nos resultados de busca, os
títulos das páginas aparecem como texto clicável que destina até a página
correspondente do site. O ideal é que cada página de um site tenha seu próprio
título e que este seja criado de forma chamativa e explicativa: informando ao usuário
o que exatamente ele irá encontrar se clicar no link apresentado entre os resultados
de busca. Conforme artigo de Vinicius Paes para o site MundoSEO9, este é o
primeiro item examinado pelo mecanismo de busca, a fim de extrair o principal
assunto sobre o qual o site e cada uma de suas páginas tratam. “Este título deve
aparecer logo no início da página, antes de qualquer texto ou imagem. Além disso,
deve ser grafado em destaque, com negrito e letras maiores do que as do restante
do texto” (FELIPINI, 2010, p. 33). Em artigo para o site da Agência Mestre, Marcel
(2007) aponta que é importante também não ultrapassar os 70 caracteres nas title
tags, já que esta é a média que os mecanismos de busca exibem. Outras dicas são
repetir o título em alguma parte do texto e manter um padrão nos títulos, para
facilitar a identificação da página pelo usuário.
A meta description, por sua vez, tem como finalidade: “descrever o conteúdo
da página com precisão e sucintamente; servir de uma pequena propaganda para
atrair tráfego orgânico e disponibilizar as palavras-chave para os buscadores”
(MARCEL, 2007). Ela não aparece no browser do usuário quando ele carrega a
página do site. Suas informações são voltadas principalmente para os mecanismos
de busca. O ideal é que a meta description descreva o conteúdo da página em até
160 caracteres, de forma apelativa e informativa, preferencialmente citando as
principais palavras-chaves. O site da Agência Mestre pontua, no entanto, que não é
extremamente necessário que sempre se use as meta description tags.
Quando se objetiva poucas palavras-chave, é interessante ter a meta
description e que as palavras-chave estejam nela. Por outro lado, quando se
9

Disponível em: http://www.mundoseo.com.br/meta-tag/title-tags-conceitos-basicos.
23
tem muito a mostrar/oferecer, ou seja, quando uma página tem muito
conteúdo que trata de temas mais específicos em torno das palavras-chave
principais, é bom deixar que o próprio motor de busca defina a relevância da
página em relação aos termos usados na busca. Quer dizer, se eu tenho um
vasto conteúdo de SEO sobre todas as categorias de SEO, às vezes é
melhor deixar que o buscador decida qual a página do meu site melhor se
adequa como reposta à busca do usuário (MARCEL, 2007).

Já as meta keywords têm como finalidade indicar ao mecanismo de busca
quais palavras-chave estão relacionadas à página. Segundo Felipini (2010, p. 40),
“alguns editores costumam colocar aqui uma infinidade de palavras, muitas vezes,
nem sequer relacionadas ao assunto, com o objetivo de tentar aparecer em um
grande número de buscas”. Isto acaba diminuindo a relevância de cada palavrachave utilizada, além de dificultar a geração de tráfego para o que realmente
interessa na página. Ainda de acordo com Felipini, devido a esse uso inadequado e
à própria evolução dos mecanismos de busca (que já varrem automaticamente as
páginas em busca das principais palavras), as meta keywords vêm perdendo a
importância em detrimento de outros critérios mais sofisticados de SEO.
As heading tags marcam no código HTML os pontos em destaque no
conteúdo do site, para facilitar a identificação da ordem de relevância dos conteúdos
para os mecanismos de busca. Estas tags vão de <h1> até <h6>. “Na tag <h1> deve
constar um resumo do que o usuário vai encontrar no texto; a tag <h2> deve abordar
um conteúdo sub-sequente do conteúdo da página; e as demais tags obedecem a
mesma filosofia” (RIOLINO, 2008).
Como os mecanismos de busca registram apenas links e textos, para que
reconheçam o conteúdo de uma imagem, é preciso usar o atributo alt. Segundo
Miranda (2009), este atributo é de vital importância para o ranqueamento do site no
Google Imagens (serviço de busca de imagens do Google) e funciona também como
texto âncora quando a imagem é usada como link. “A tag alt também é utilizada
pelos bots do Google que juntamente com a tag title interpreta melhor o significado
da imagem e sua relação com a página em questão” (MIRANDA, 2009). O ideal é
escrever uma descrição curta e direta, sem preposições, com no máximo cinco
palavras e apenas hífens entre elas.
O atributo title complementa o alt, permitindo que usemos quantos caracteres
forem necessários para descrever a imagem, mas o ideal é não escrever longos
textos. O bom uso desses atributos já faz com que as imagens consigam ter um
24

melhor posicionamento em mecanismo de busca de imagem, como o Google
Images por exemplo.
Muitos acessos a veículos online chegam através de imagens bem
rankeadas. O jornalista deve ter cuidado com a sua imagem desde a hora
em que a salva em seu computador para depois fazer upload no publicador.
O nome da imagem pode ser crucial na hora de um buscador indexar a sua
imagem (ALVAREZ, 2011, p. 21).

Quanto ao domínio principal do site, ele deve descrever, sempre que possível,
o conteúdo do site de maneira sucinta. As páginas secundárias do site também
devem ter URLs amigáveis, ou seja, endereços que descrevam de forma objetiva e
exata o conteúdo da página. Essa é uma técnica que contribui muito para um bom
posicionamento do site para as palavras-chave utilizadas. “Isto ocorre porque os
sistemas de busca dão um peso importante à existência da palavra-chave no
endereço do site” (FELIPINI, 2010, p. 32).
Domínios com correspondência exata com palavras-chave e pesquisas
geralmente não são tão fáceis de encontrar, pois a probabilidade de já
terem um dono é muito grande. Nesse caso, procure verificar se ele não
está expirado ou se não está à venda. URL - Se uma das principais
palavras-chaves consta já na URL do site, esta já é uma grande vantagem
(LIMA, 2009).

O conteúdo de um site influencia na percepção que os visitantes têm do
mesmo e também estimula que outros sites insiram links de saída direcionando para
este em questão. “Às vezes, um bom artigo com conteúdo relacionado ao seu site
pode parar no topo dos sites de busca, sem nenhuma ação direta de sua parte”
(FELIPINI, 2010, p. 62). Por outro lado, se um site está bem colocado nos resultados
de busca, atraindo vários usuários, mas estes se sentirem frustrados ao acessar por
encontrar um conteúdo pouco relevante, “a insatisfação dos usuários resultaria em
uma baixa performance do site, além de se refletir negativamente na avaliação do
PageRank” (FELIPINI, 2010, p. 63). Marcel (2009) dá algumas dicas rápidas para
garantir qualidade ao conteúdo: deve-se valorizar os dois primeiros parágrafos, indo
direto ao ponto; escrever parágrafos curtos envoltos por espaço vazio (espaço entre
os parágrafos); usar imagens de qualidade e que complementem o texto; usar listas
para destacar pontos importantes; usar subtítulos quando o texto for longo para
tornar a leitura mais dinâmica; usar negrito e itálico; citar referências e trazer outros
links. Uma dica importante e já notavelmente utilizada por muitos blogs é colocar as
25

principais palavras-chave no texto em negrito, para demonstrar ao buscador que
estas têm maior importância em relação ao restante do texto.
O ideal, segundo Felipini, é incluir conteúdo exclusivo, “não encontrado em
qualquer canto da Internet; e que, se for comercial, não seja apelativo ou subestime
a inteligência do potencial comprador” (FELIPINI, 2010, p. 64). Um blog, por
exemplo, pode ser uma forma interessante de ampliar indiretamente o conteúdo do
site, por meio de uma comunicação mais informal e indireta. “Os links direcionados
para o site principal, além de encaminhar clientes potenciais, agregarão pontos”
(FELIPINI, 2010, p. 65). Pode-se também convidar especialistas ou pessoas com
conhecimento relacionado ao tema do site para escrever artigos, sugere o autor.

1.3.2 SEO off-page

SEO off-page é a otimização para mecanismo de busca que ocorre por meio
de outros sites, que acabam gerando acesso e elevando a qualidade da página
perante a avaliação dos mecanismos de busca. Os principais fatores off-page em
SEO são número e qualidade de links externos, texto âncora dos links externos e
idade do domínio.
Felipini (2010) explica que quanto mais links externos de qualidade uma
página tiver, melhor esta será classificada nos resultados de busca. O Google utiliza
o sistema de classificação PageRank. Este é também “o nome dado ao valor
numérico alcançado por cada página e que, na comparação com outras, vai definir a
ordem de classificação de cada uma no resultado da busca” (FELIPINI, 2010, p. 49).
A pontuação depende da quantidade de links e da quantidade de pontos que a
página emitente pode distribuir por meio de seus links. O Google não divulga a
fórmula matemática que utiliza, mas se sabe que a fórmula considera
majoritariamente os seguintes fatores: “links de entrada (links de outras páginas
apontado para sua página), links de saída (links em sua página apontando para
páginas externas) e links internos (links entre sua página e outras sob o mesmo
domínio)” (FELIPINI, 2010, p. 51).
Os links de entrada devem vir de sites que tem alguma relação com o
conteúdo do site, para gerar tráfego mais interessante, que pode converter em
26

vendas ou fidelizar público, no caso de um site de notícias por exemplo. Quanto aos
links de saída, é importante que a página de origem não tenha uma enorme
quantidade de links de saída, pois assim “o valor do link direcionado para cada
página tende a ser menor” (FELIPINI, 2010, p. 52). Link Building “é o conjunto
de técnicas de SEO e otimização de sites responsável pela arquitetura interna de
links de um site e pela conquista de links externos”. (MARCEL, 2008). As redes
sociais, por exemplo, podem ser usadas na busca de linkbuilding.
Quando as pessoas compartilham a sua notícia e mandam o link para a sua
URL, ela ganha relevância e isso é positivo para SEO. O botão de +1 do
Google também é um grande aliado. Verifique se no seu site de notícias
online ou portal, os botões de content share e de +1 estão ativos. Isso pode
fazer diferença na hora do posicionamento de sua notícia (ALVAREZ, 2011,
p. 19).

Em relação aos links internos, sabe-se que as páginas dentro de um site que
recebem uma maior quantidade de links, como geralmente é o caso da home page,
ficam com uma pontuação maior (no PageRank) do que aquelas que recebem
poucos.
Um aspecto interessante da otimização de links internos é que ele acarreta
um duplo benefício: além de melhorar o posicionamento das páginas mais
importantes, indica ao usuário do site o melhor caminho a seguir,
melhorando a usabilidade e a taxa de conversão (FELIPINI, 2010, p. 55).

O link pode ser dividido em duas partes: a URL linkada e o texto descritivo. “O
texto descritivo é chamado também de texto âncora e esta descrição é quem faz um
site posicionar-se bem para uma determinada palavra-chave” (RICOTTA, 2008).
Quanto à idade do domínio, quanto mais antigo, melhor deve ser sua
colocação nos resultados de busca, desde que ele continue sendo alimentado com
conteúdo e atualizado. Isto por que hoje em dia a criação de domínios cresce
vertiginosamente “e estamos cercados de domínios com conteúdo duplicado, spam,
páginas com vírus e voltadas a propaganda extensiva” (RICOTTA, 2007). Assim, a
idade do domínio acaba por contribuir com sua credibilidade diante dos mecanismos
de busca.
27

2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER JORNALÍSTICO

Pesquisar o jornalismo na internet não é uma questão de modismo, é uma
necessidade. Afinal, a internet foi o último e o mais sensacional meio de
comunicação do Século XX e segue sua carreira na era da Revolução
Digital (QUADROS, 2002, p. 1).

Depois de abordarmos o surgimento da Internet, os mecanismos de busca e
as práticas de Search Engine Optimization, abordar-se-á a atuação dos jornalistas
na web, para na sequência avaliar como estes profissionais estão utilizando o SEO,
na prática, para gerar tráfego aos sites de notícia. Abordar-se-á inicialmente as
principais características do Jornalismo Online. Foram reunidas informações
históricas,

tratando

dos

primórdios

do

Jornalismo

Online

no

mundo

e,

especificamente, no Brasil. Na sequência, entram em foco algumas das mudanças
no fazer jornalístico após o surgimento da Internet e a presença dos jornais
impressos na web; fatos que modificaram a forma de consumir notícias, algumas
rotinas produtivas e também o perfil profissional das redações online.
Esta reflexão será a tônica para introduzir, no terceiro capítulo, o relato de três
profissionais da área sobre a importância que os sites de notícia estão dando às
técnicas de SEO para alavancar seus acessos e buscar se tornar referência online.

2.1 CARACTERÍSTICAS DO JORNALISMO ONLINE

Para Luciano Miranda (2004, p. 11), o Jornalismo Online “é um meio de
comunicação autônomo – e ao mesmo tempo integrado – que vem a ser somado ao
tripé tradicional da imprensa, rádio e televisão”. Outras nomenclaturas também são
utilizadas para designar este tipo de prática jornalística: Ciberjornalismo, Jornalismo
eletrônico, Jornalismo online, Jornalismo digital, Jornalismo hipertextual. Entretanto,
no momento, não será estabelecida a discussão sobre as especificidades e
adequações destas nomenclaturas.
Segundo estudos coordenados pelos professores Marcos Palacios e Beatriz
Ribas por meio da Oficina de Jornalismo Digital da Faculdade de Comunicação da
28

UFBA (Universidade Federal da Bahia), entre as principais características do
Jornalismo Online estão:
- Hipertextualidade: possibilidade de interconectar textos, sites, arquivos, por
meio de links, fazendo com que o internauta possa acessar informações
contextualizadas e mais aprofundadas, já que os links podem ter conteúdo
multimídia ou dados de material mais antigo;
- Multimidialidade ou convergência: convergência das mídias convencionais
(texto, imagem e som) na narração do fato jornalístico. “A convergência torna-se
possível em função do processo de digitalização da informação e sua posterior
circulação e/ou disponibilização em múltiplas plataformas e suportes, numa situação
de agregação e complementaridade” (PALACIOS et al, 2003, p. 3);
- Interatividade: capacidade de fazer com que o leitor/usuário sinta-se mais
diretamente parte do processo jornalístico. “A interatividade busca a inclusão do
usuário/leitor como participante do processo jornalístico através de troca de e-mails
(leitor/jornalista), da participação com comentários, enquetes e opinião, discussão
em fórum e chats, e da navegação livre e seletiva de conteúdos” (TOLDO E
GONÇALVES, 2008);
- Personalização/customização de conteúdo: consiste na opção oferecida ao
usuário para configurar os produtos jornalísticos de acordo com os seus interesses
individuais. Há sites noticiosos que permitem a pré-seleção dos assuntos, bem como
a sua hierarquização e escolha de formato de apresentação visual. “Assim, quando
o site é acessado, a página de abertura é carregada na máquina do usuário
atendendo a padrões previamente estabelecidos, de sua preferência” (PALACIOS et
al, 2003, p. 4);
- Memória: há na Web maior possibilidade de acumulação de informações
do que em outras mídias. O volume de informação produzida e disponível ao usuário
e ao produtor da notícia cresce exponencialmente, o que produz efeitos na produção
e na recepção da informação jornalística. Na Web, a memória torna-se coletiva,
através do processo de hiperligação entre os diversos nós que a compõem. “A
memória no Jornalismo na Web pode ser recuperada tanto pelo produtor da
informação, quanto pelo usuário, através de arquivos online providos com motores
de busca (search engines) que permitem múltiplos cruzamentos de palavras-chaves
e datas (indexação)” (PALACIOS et al, 2003, p. 8);
29

- Atualização contínua ou instantaneidade: agilidade na produção e
disponibilização de conteúdo na Internet. O material pode ser atualizado
constantemente, diferentemente, por exemplo, da mídia impressa.
Essas características foram surgindo ao longo do tempo, diferenciando cada
vez mais o Jornalismo Online dos demais tipos de Jornalismo Impresso. E para
entender essa transição e a entrada dos grandes grupos de comunicação na Web,
será traçado a seguir um breve histórico do Jornalismo Online.

2.2 BREVE HISTÓRICO DO JORNALISMO ONLINE

Antes da World Wide Web, a rede já era utilizada para a divulgação de
informações jornalísticas, porém os serviços oferecidos eram direcionados para
públicos específicos e funcionavam por meio da distribuição de e-mails, boletins
disponibilizados através do sistema Gopher (que possibilitava o acesso a
informações mantidas em diversos computadores em uma rede) ou de recursos
semelhantes. “A Internet passa a ser utilizada, de forma mais expressiva, para
atender finalidades jornalísticas, a partir de sua utilização comercial, que se dá com
o desenvolvimento da Web no início dos anos 90” (PALACIOS et al, 2001, p. 2).
Os estudos do professor John Pavlick, da Universidade de Columbia,
classificam o Jornalismo Online em três estágios: “o 1º seria apenas a transposição
da versão impressa para a Internet, o 2º esta transposição e mais alguns produtos
diferenciados do jornal de papel e o 3º um produto totalmente exclusivo para a
internet” (QUADROS, 2002, p. 2). Para tratar mais detalhadamente acerca das
mudanças ocorridas no Jornalismo Online, relata-se na sequência um breve
histórico do Jornalismo Online.
O boom dos diários digitais ocorreu entre 1995 e 1996. À época, empresários
da comunicação nos Estados Unidos vislumbraram, nesta oportunidade de oferecer
um diário de fácil acesso ao usuário, uma nova forma de obter lucros. Experiências
no laboratório de design coordenado pelo jornalista e designer Roger Fidler deram
origem ao flat panel, que pretendia ser o “protótipo do diário do futuro”. Esses
estudos “foram considerados no momento de criar as páginas web do The San Jose
30

Mercury Center, que possuía desde 1993 uma versão eletrônica distribuída pela
companhia America On line por meio de uma rede própria” (QUADROS, 2002, p. 3).
De acordo com Quadros (2002), os primeiros jornais que se notabilizaram na
Internet foram o The San Jose Mercury Center, criado em 1995, e o The NandO
Times, criado em 1994 pela empresa McClactchy Newspaper Inc., responsável pela
edição do diário impresso News & Observer. No boom da Internet, nos Estados
Unidos, na Espanha e no Brasil, a maioria das redações online era formada por
jovens profissionais, com um bom currículo acadêmico, mas com pouca experiência
na área. O editor do The NandO Times, Seth Efron, afirmava que era conveniente
contratar jornalistas menos experientes para trabalhar nas redações online, porque
"eles não têm noções preconcebidas do Jornalismo" (IANZITO, 1996 apud
QUADROS, 2002, p. 4). A redação digital do The San Jose Mercury Center contava
com profissionais empenhados em construir conteúdo e linguagem específicos para
a Internet.
Em 1996, fazia parte do quadro de jornalistas do The San Jose Mercury
Center, o jovem Mark Hull. Com apenas 21 anos, ele foi responsável por
uma reportagem distribuída na rede sobre como o lucro das vendas da
cocaína a certos bandos de Los Angeles iam parar em um fundo da CIA,
agência norte-americana de inteligência (QUADROS, 2002, p. 3-4).

Em 1993, o MIT (Instituto Tecnológico de Massachusetts) nos Estados Unidos
deu início ao News in the Future, um projeto de pesquisa, com o apoio de empresas
jornalísticas de todo o mundo, para estudar “novas formas de criar jornais mais
interativos, úteis e de fácil acesso” (QUADROS, 2002, p. 4). A partir deste projeto, os
pesquisadores criaram o diário digital Fiswrap, em que procuravam utilizar todos os
recursos interativos da hipermídia possíveis, com o intuito de se tornar referência
para os jornais eletrônicos.
As criações do diretor do MIT, Nicholas Negroponte, serviram de modelo para
muitos jornais. Ele criou, por exemplo, o jornal personalizado Daily Me, que oferecia
serviços dirigidos para cada leitor. Apesar de nunca ter obtido uma circulação
massiva, o Daily Me contribuiu significativamente para os estudos desenvolvidos na
área e reforçou a necessidade de preparar jornalistas para a Internet: "Ser digital
supõe o surgimento de um conteúdo totalmente novo, de novos profissionais (...)"
(NEGROPONTE, 1994 apud QUADROS, 2002, p. 5).
31

Nos Estados Unidos, diversas empresas norte-americanas cooperaram para o
desenvolvimento dos jornais online. Em 1995, foi criada nos Estados Unidos a
companhia New Century Network, uma associação de oito editoras de jornais:
Knight-Ridder, Cox Newspaper, Gannett Co. Inc., Hearst Corporation, The
Washington, Post Corporation, Times Mirror Co., Tribune Co. e Advance Publication
Inc. "No total, estas oito empresas publicam [referente ao período de 1995] 185
diários, com uma tiragem conjunta de mais de 20 milhões de exemplares, o que
representa um terço da indústria de diários nos Estados Unidos" (GARNEAU, 1994
apud QUADROS, 2002, p. 5).
Estes periódicos serviram de referência para jornais que chegavam à rede ou
que pretendiam alcançar um estágio mais avançado na World Wide Web; no
entanto, a maioria deles reproduzia os conteúdos e o design das versões impressas.
A editora do The New York Times Eletronic Media Company, Elizabeth Osder, por
exemplo, sempre demonstrou a preocupação em atender as exigências da internet
e, principalmente, de seu público: “Agora nosso desafio é construir um novo
conteúdo para um novo meio: o mundo da grande teia” (OSDER, 1997 apud
QUADROS, 2002, p. 6). Elizabeth acreditava também que, para as próximas
gerações dos jornais digitais, seriam necessários editores preparados para o
desenvolvimento de novos produtos que aproveitassem as vantagens do hipertexto.
O The Washington Post.com, criado pela empresa Digital Ink Co., foi
desenvolvido com a intenção de oferecer um produto distinto da versão impressa do
The Washington Post, sendo considerado, em 1995, "um dos mais completos
exemplos do novo enfoque do jornalismo na internet" (McADAMS, 1995 apud
QUADROS, 2002, p. 6). À época, os jornalistas estavam utilizando novas
ferramentas e começando a desenvolver a linguagem e os conceitos apropriados
para a Web. As atualizações eram feitas a cada seis horas na maioria das redações
online, o que resultava em uma carga de trabalho mais desgastante para os
profissionais em relação àqueles que atuavam no jornal impresso. Em 1996, o
produtor online da Digital Ink, Bill Frischling, relatou que “começava todos os dias às
seis horas da manhã e só concluía seu trabalho às seis da tarde” (QUADROS, 2002,
p. 6).
Na Espanha, o primeiro diário digital foi o Boletim Oficial do Estado, criado em
1994, segundo Quadros (2002). O Boletim Oficial do Estado possuía o mesmo
conteúdo da versão impressa, mas podia ser consultado antes de sua distribuição
32

em papel. No ano seguinte, diversas empresas de comunicação espanholas já
tinham uma versão eletrônica de seu jornal impresso. Em 1° de abril de 1995, surgiu
o diário digital Avui, depois foram lançados o El Periódico de Catalunya e o La
Vanguardia. Inicialmente, era apresentado o mesmo conteúdo das versões
impressas, mas pouco a pouco, passou-se a oferecer serviços mais interativos. Luis
Ángel Fernández Hermana, editor da revista científica Enredando e colunista do El
Periódico de Catalunya, ressaltou as responsabilidades das empresas e dos
jornalistas diante da Internet.
Os meios deverão passar por um doloroso processo de reconhecer que o
mundo não é só aquilo que eles publicam, mas também muitas outras
coisas que estão sendo disponibilizadas na Rede. Isto será um enorme
desafio para os meios (...) E os jornalistas receberão a informação da
própria internet para realizar o seu trabalho, mas também deverão
disponibilizar informação para a Rede. É fundamental a troca de
informações (FUENTES I PUJOL, 1997 apud QUADROS, 2002, p. 7).

Ainda em 1995, a grande imprensa de Madri começou a criar suas versões
online. O ABC, jornal de circulação nacional, disponibilizou sua versão eletrônica em
19 de setembro de 1995 e dois anos depois, contava com quatro profissionais
responsáveis exclusivamente pela sua produção. “Eles começavam a trabalhar às
onze da noite e quase sempre saiam da redação às seis horas da manhã”
(QUADROS, 2002, p. 8). Segundo Avelino Buendía, um dos responsáveis pelo ABC
eletrônico, a idéia naquele período era ampliar o número de jornalistas para oferecer
outros serviços e atualizações mais constantes. "Como não há muitos profissionais
na redação digital do ABC, é impossível atualizar as notícias durante 24 horas do
dia, como costumam fazer alguns diários eletrônicos em diversas partes do mundo"
(BUENDÍA, 1997 apud QUADROS, 2002, p. 8). Os jornalistas aproveitavam todo o
conteúdo do diário impresso; mas essa não era uma tarefa fácil, porque eles não
tinham encontrado um programa que atendesse a todas as suas necessidades: "Nós
tínhamos dificuldades para acrescentar alguma notícia ou corrigir outra, porque o
nosso servidor ficava em Bilbao. Os problemas de transmissão eram terríveis”
(BUENDÍA, 1997 apud QUADROS, 2002, p. 8).
Em maio de 1995, o diário digital El Mundo foi para a Web. A versão
eletrônica nasceu do esforço do jornalista Mario Tascón, professor da Universidade
de Navarra e atual diretor do El Mundo online, que na época era chefe da seção de
infográficos do jornal impresso. “Quando o produto despertou o interesse do público
33

e chamou a atenção dos empresários do jornal, Mário Tascón pôde contar com o
apoio de um redator que, no início de sua carreira, era responsável pela base de
dados da versão impressa do El Mundo” (QUADROS, 2002, p. 8-9). Inicialmente, os
leitores tinham acesso apenas ao suplemento Campus, dirigido aos jovens; mas
com o tempo outras seções do jornal impresso foram disponibilizadas na rede. Em
1996, mais dois jornalistas, oriundos da Universidade de Navarra, foram contratados
para a cobertura das eleições gerais. Em 1997, a redação do então chamado El
Mundo del Siglo XXI já contava com 10 profissionais e o diário digital começou a
apresentar resumos das principais notícias de várias seções da versão impressa:
Nacional, Internacional, Economia, Esportes e Ciências.
A primeira emissão do El País Digital foi em 4 de maio de 1996, coincidindo
com o 20º aniversário de sua versão impressa. No entanto, antes de ser
disponibilizado, sua equipe trabalhou em seu projeto durante dez meses. Em
meados de 1997, a equipe era formada por dez redatores e três profissionais
técnicos. "Aqui utilizamos praticamente todo o texto da sua versão impressa. Nossa
responsabilidade é adequar os conteúdos para o diário digital, explorando os
recursos oferecidos pelo hipertexto e outras ferramentas. Elaboramos um breve
resumo da notícia, uma chamada para a reportagem etc", afirmou Lucía Anguito
Mayo, uma das redatoras do El País Digital, em entrevista à pesquisadora Claudia
de Quadros. Na época, o horário do trabalho era a principal queixa dos jornalistas
dos diários eletrônicos em todo o mundo, assim como os do El País Digital:
Como necessitamos trabalhar com o jornal impresso praticamente
concluído, porque utilizamos os textos do diário que estará nas bancas no
dia seguinte, iniciamos a nossa jornada às oito horas da noite. O
fechamento é, normalmente, às quatro da manhã, porque o jornal digital
demora uma hora para ser comprimido e transmitido para a Rede (MAYO,
1997 apud QUADROS, 2002, p. 10).

Na América Latina, o pioneiro no Jornalismo Online foi o Grupo Estado, por
meio da Agência Estado/Broadcast. Em junho de 1993 foi iniciado o projeto Estadão
Multimídia e em agosto do mesmo ano, o Grupo Estado começou a explorar novas
ferramentas, como o fax e os boletins eletrônicos em formato BBS (Bulletin Board
System). Em março de 1995, o jornal digital do Estadão, então denominado
NetEstado, foi estruturado. A arquitetura das primeiras páginas web foi planejada em
julho, mas só foi disponibilizada em 8 de dezembro de 1995. “Por isso, o Jornal do
Brasil é considerado o primeiro diário digital do País a fazer cobertura completa no
34

espaço virtual” (MOHERDAUL, 2000 apud QUADROS, 2002, p. 12). O Jornal do
Brasil foi disponibilizado integralmente na rede em 28 de maio de 1995. No entanto,
apesar do Jornal do Brasil ser considerado o pioneiro, as conquistas e os esforços
dos jornalistas da versão digital de O Estado de São Paulo contribuíram de forma
mais significativa para o desenvolvimento do Jornalismo Online.
O primeiro site do jornal O Estado de São Paulo foi denominado Panorama e
continha uma revista feminina intitulada Mulher com artigos exclusivos. "Acredito que
foi uma das primeiras publicações eletrônicas do Brasil a tratar de temas
predominantemente femininos", destacou Luciano Martins Costa, ex-diretor e criador
da versão digital de O Estado de São Paulo, em entrevista à pesquisadora Claudia
de Quadros. Na fase inicial, o projeto do NetEstado contava com dois jornalistas e
uma técnica em informática, mas quando o diário entrou na rede, já havia quatro
jornalistas, um coordenador e dois técnicos. “Em meados de 1997, a redação digital
era formada por sete jornalistas e cinco técnicos. Três redatores produziam as
últimas notícias, que podiam ser acessadas por meio de links para a Agência do
Estado” (QUADROS, 2002, p.12).
Em 2002, Luiz Octavio Lima, o ex-editor especial do NetEstado, assumiu a
coordenação da versão online do Estadão. A equipe era composta por “dois editores
especiais, três redatoras, três analistas de sistemas, um assistente e um auxiliar de
produção gráfica, além dos técnicos de informática” (QUADROS, 2002, p.12). A
arquitetura Web sofreu diversas alterações desde a implementação. No final de
1997, era coordenada pelo designer Mario Garcia, conhecido pelo trabalho no
desenvolvimento de novas interfaces para sites jornalísticos nos Estados Unidos e
Europa. Ainda segundo Quadros (2002), a evolução do diário digital de O Estado de
São Paulo ainda está relacionada com o convênio mantido com o já citado grupo
News in the Future, do MIT.
Segundo Luciano Costa, todos os sites do Grupo Estado procuraram, desde
a assinatura do convênio, utilizar os informes do MediaLab para obter uma
orientação sobre as possíveis mudanças, evitando assim muitos
investimentos em recursos tecnológicos com pouco futuro (QUADROS,
2002, p.13).

Um fato curioso na história do Jornalismo Online brasileiro é que, no final de
1997, jornalistaS fumantes não podiam fazer parte da redação online de O Estado
de São Paulo.
35

Os técnicos costumavam dizer que a fumaça poderia afetar os
equipamentos informáticos e os editores de O Estado de São Paulo
entendiam que a dependência ao cigarro significava diversas saídas da
redação e, consequentemente, resultava em uma baixa produção
(QUADROS, 2002, p.13).

Regianne Bochichi, uma das produtoras da versão digital de O Estado de São
Paulo, entrou para a equipe do Estado Multimídia em 1995, depois de ter atuado em
rádio e televisão. Em entrevista à pesquisadora Claudia de Quadros, afirmou que
encontrou na redação online mais estímulo para sua criatividade.
O trabalho não está limitado a uma função. É possível acompanhar todo o
processo de edição, proporcionando uma ampla visão dos fatos do dia.
Além disso, é possível utilizar recursos, como o som e a imagem em
movimento, que são impossíveis na versão impressa (QUADROS, 2002,
p.13).

Em março de 1995, o Caderno Informática Etc. do jornal O Globo foi lançado
na web. Em 29 de julho de 1996, surgiu o diário digital O Globo On-line, um dos
produtos do portal Globo.com. Ao final do mesmo ano, foi formada uma equipe
exclusiva (com jornalistas, técnicos e especialistas em marketing) para a versão
digital de O Globo, com sede no Rio de Janeiro. O superintendente Henrique Caban
justificava o atraso de O Globo na Internet como uma estratégia: "Não queremos
colocar na Rede nada que não esteja pronto. Não basta colocar o jornal impresso no
computador. Vamos explorar o que a internet pode oferecer, como a atualização
online durante todo o dia” (SIQUEIRA, 1996 apud QUADROS, 2002, p.13-14). No
final de 1997, oito jornalistas produziam conteúdo em tempo real e seis enriqueciam
estas notícias. Em 2002, a redação digital era coordenada pela editora-chefe Joyce
Jane Corrêa Meyer, e “o Globo On-Line contava com um editor-executivo, um
gerente comercial, três editores, dois editores de capa, dois de ambientes especiais,
um de interatividade, um editor de criação que comandava um equipe de quatro
profissionais e 11 repórteres, além da equipe responsável pela gestão tecnológica”
(QUADROS, 2002, p. 14).
Voltando à perspectiva global, o que se percebe, nos últimos anos, é uma
queda nas receitas das mídias convencionais pela redução no número de leitores,
pela falta de credibilidade e pela migração da publicidade para a web, de acordo
com Pereira e Adghirni (2011). Em 2009, segundo declarações do executivo-chefe
de um dos maiores grupos de jornais dos Estados Unidos, 19 dos 50 maiores jornais
36

daquele país estavam perdendo dinheiro e esse número cresceria ainda mais nos
anos seguintes, conforme Weaver (2009) apud Pereira e Adghirni (2011). Os
jornalistas também estão sendo ameaçados. Em 2007, redações norte-americanas
já haviam demitido cerca de 2.400 jornalistas, o que representa uma redução de
4,4% com relação ao ano anterior, segundo dados apresentados em 2008 pela
American Society for Newspapers Editors, número que provavelmente se agravaria
no ano seguinte por conta da crise financeira que atingiu aquele país, segundo
Mosco (2009) apud Pereira e Adghirni (2011).
Ao mesmo tempo, autores como Russel (2009) afirmam que a crise nos
jornais impressos contrastaria com o crescimento de publicações na Internet e a
explosão das informações disponíveis ao público: “A quantidade de novos materiais
produzidos a cada dia, o acesso a esse material e as variedades na forma e no
conteúdo, a participação [do público] na produção e disseminação disso – tudo isso
está explodindo” (RUSSEL, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 3).
Todos estes avanços e adaptações do Jornalismo Online, indubitavelmente,
tiveram consequências, tanto na forma de receber a notícia quanto na forma de
produzi-la. Estas mudanças comportamentais dos receptores, nas rotinas produtivas
e no perfil profissional dos jornalistas serão explanadas na sequência.

2.3 MUDANÇAS NO FAZER JORNALÍSTICO

Em função do desenvolvimento da Internet, chegou a ser cogitado o
desaparecimento do Jornalismo convencional (ou pelo menos dos jornalistas
enquanto intermediários). No entanto, com o passar do tempo, pesquisadores da
área concluíram que o surgimento de novos formatos midiáticos não pode ser
considerado “um processo evolucionário linear, de superação de suportes anteriores
por suportes novos, mas como uma articulação complexa e dinâmica de diversos
formatos jornalísticos, em diversos suportes, em convivência (e complementação)”
(PALACIOS, 2003, p. 6).
As mudanças socioeconômicas e inovações tecnológicas têm provocado
profundas alterações nos processos de produção e apresentação da notícia. Pereira
e Adghirni (2011) afirmam que, inclusive, alguns formatos canônicos do texto
37

jornalístico – como o lead e a pirâmide invertida - bem como os critérios de
noticiabilidade foram se modificando nesse novo cenário. “Ao mesmo tempo, novas
rotinas produtivas e novos formatos para o conteúdo jornalístico emergem. Tais
mudanças podem ser atribuídas à possibilidade de acesso a informações por meio
de bases de dados, à convergência de mídias e de redações e à proliferação de
mídias institucionais e de ferramentas de autopublicação” (PEREIRA; ADGHIRNI,
2011, p. 8).
Uma das primeiras mudanças percebidas após o surgimento do Jornalismo
Online foi no comportamento dos consumidores de notícias. Anteriormente, ler o
jornal diário ou ouvir as notícias no rádio eram atividades inseridas na rotina das
pessoas, como explana Rasêra:
A leitura do jornal impresso era (e ainda é para pessoas mais tradicionais)
uma atividade para ser feita ao tomar o café da manhã; à noite era hora do
noticiário televisivo; e ao longo da semana e conseqüentemente do mês, era
feita a leitura das revistas entregues nas residências por meio de
assinaturas. Por muito tempo, estas eram as fontes disponíveis para o
consumo de notícias (RASÊRA, 2010, p. 6).

Entretanto, com a evolução da Web e do Jornalismo Online, o conteúdo
multimídia passou a ser produzido e distribuído mais rapidamente, o que “introduziu,
no início do século 21, uma era de abundância informativa, caracterizada pela
preocupação sobre o crescente custo-benefício entre qualidade e quantidade de
informação” (BOCZKOWSKI, 2010, loc. 2445 apud CORRÊA; BERTOCCHI, 2012, p.
34). Com isso, as pessoas passaram a consumir notícias de uma maneira
praticamente involuntária.
Alguns segundos de um canal a cabo de jornalismo 24 horas, enquanto
mudam o canal da televisão; o programa de rádio com as notícias da hora,
enquanto dirigem e escutam música; uma olhada por todas as manchetes
de jornais pregados nos quiosques nas ruas; comentários gerais postados
nas paredes da cantina do local de trabalho; comentários das notícias na
homepage do Yahoo! enquanto procuram por alguma coisa online; resumos
de e-mails mal digitalizados; e até mesmo, na hora do jantar, o cônjuge
comenta alguma coisa vista em algum outro lugar qualquer (RASÊRA, 2010,
p. 6).

Alguns pesquisadores afirmam que “as pessoas estão passando mais tempo
consumindo notícias em diferentes formatos do que faziam antes em um único meio”
(RASÊRA, 2010, p. 7). Assim, os receptores não estão mais recorrendo a um só
meio de comunicação.
38

Ele [internauta] procura tudo. Ávido, é capaz de visitar 100 sites em 100
segundos, vê de tudo, gosta de novidades e está a cada dia mais surpreso
com o poder da rede. E quanto mais ele a conhece, mais ele a ama. E se
torna mais exigente. E depura mais o que vai ler. E isso transcende na Web:
o cidadão quer mais qualidade em tudo, principalmente no que lê. Exige a
honestidade. Se for para arriscar um futuro, vejo as pessoas selecionando
cada vez mais a qualidade da sua leitura e as publicações que o
acompanham no cotidiano. Este é o leitor cada vez mais valorizado, pois é
mais preparado para exigir qualidade de produtos e serviços, incluindo
editoriais (NETO apud SHÄFFER, 2007).

Essas mudanças no comportamento dos receptores implicaram em
mudanças também na produção e na distribuição de notícias, já que as empresas
que não atentassem para esse fator poderiam rapidamente perder espaço no
mercado. Os jornalistas têm sido “pressionados a buscar alternativas para o
processo de coleta e formatação de informações para atender às novas exigências
do público (mais ativo e participativo), o que implica em redefinir seus próprios
valores” (MCNAIR, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 2).
Por um lado, “observa-se o aumento do conteúdo de entretenimento,
resultado da intensificação da concorrência e das pressões exercidas pelos
departamentos comerciais das empresas de comunicação” (CHARRON; BONVILLE,
2004; HALLIN, 1996 apud PEREIRA; ADGHIRNI, 2011, p. 2). Por outro, “empresas
convergem suas diferentes operações midiáticas, criando novas plataformas,
produtos híbridos exigindo que os profissionais de redação passem a produzir
conteúdos multimídia e assumam o perfil multitarefas” (DEUZE, 2005; JORGE;
PEREIRA; ADGHIRNI, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 2).
A pressão do tempo sobre a produção das notícias é uma das marcas
permanentes do Jornalismo ao longo de sua história, mas o desenvolvimento das
tecnologias digitais acelerou este processo nos últimos 20 anos, segundo Pereira e
Adghirni (2011). “Na realidade, as representações temporais são uma das maiores
revoluções do Jornalismo depois que a internet quebrou o ritmo circadiano da
notícia” (PEREIRA; ADGHIRNI, 2011, p. 8). Diferentes estudos já apontam para este
cenário de aceleração do ciclo de produção, circulação e consumo da notícia
jornalística. Esse processo não foi motivado exclusivamente pela introdução da
Internet, mas se deve a uma aceleração do tempo social e à adoção do formato de
agências de notícias pelos jornais brasileiros, de acordo com os autores
supracitados. O desenvolvimento das tecnologias digitais na última década apenas
39

acelerou esse processo, fazendo com que os principais jornais começassem a
disponibilizar informações produzidas em fluxo contínuo.
Isso aumentou a pressão – por parte das empresas e do público – sobre os
jornalistas pela atualização constante do conteúdo (Adghirni, 2004; Pereira,
2004; Weiss e Joyce, 2009). Ao mesmo tempo, perdura a cobrança pela
publicação de notícias bem apuradas, que contenham informações de
background e diversidade de fontes (Nguyen, 2010). Demanda, na verdade,
que remete a uma antiga contradição (Moretzsohn, 2002): como produzir
jornalismo de qualidade se não há disponibilidade de tempo hábil para uma
boa apuração? Como conciliar as demandas por velocidade e “verdade” na
produção jornalística? (PEREIRA; ADGHIRNI, 2011, p. 9).

Outras mudanças percebidas são em relação ao aumento no número de
atribuições dos jornalistas, concentrando processos como pesquisa, redação,
edição, ilustração, publicação e pós-publicação em um único profissional, de acordo
com Steensen (2009) apud Pereira e Adghirni (2011). Alguns jornalistas também
acabam produzindo conteúdo para vários formatos midiáticos (impresso, TV, rádio,
on-line), o que exige o desenvolvimento de novas competências e sobrecarga de
trabalho. “Situação que as empresas adotam e vendem com orgulho, levando o
profissional a assumir o slogan de jornalista 24 horas” (PEREIRA; ADGHIRNI, 2011,
p. 10).
Por outro lado, as tecnologias possibilitam que os jornalistas possam, cada
vez mais, apurar as informações necessárias à produção de uma matéria sem sair
das redações. E aumentou também a possibilidade de oferecer conteúdo mais
aprofundado, já que o espaço virtual é praticamente ilimitado no que diz respeito à
quantidade de informação que pode ser produzida, recuperada, associada e
colocada à disposição do público-alvo.
É fundamental que se enfatize que se trata da primeira vez que isso ocorre
na História do Jornalismo, uma vez que, em todos os suportes anteriores
(impresso, rádio, TV), o jornalista era obrigado a conviver com rígidas
limitações de espaço (que se traduzem em tempo, no caso do rádio e TV)
(PALACIOS, 2003, p. 8).

Os jornais e revistas têm dado atenção cada vez maior para a produção de
conteúdo exclusivo para a Internet. Se antes o conteúdo produzido para as mídias
impressas era apenas replicado (integralmente ou em parte) no site do veículo;
atualmente o Jornalismo Online se desenvolveu a ponto de ter equipes exclusivas
com jornalistas, editores e fotojornalistas próprios. “Com o crescimento da massa de
informação disponível aos cidadãos, torna-se ainda mais crucial o papel
40

desempenhado por profissionais que exercem funções de filtragem e ordenamento
desse material, seja a nível jornalístico, acadêmico, lúdico, etc.” (PALACIOS, 2003,
p. 6).
O jornalista online tem que fazer escolhas relativamente ao(s) formato(s)
adequado(s) para contar uma determinada história (multimídia), tem que
pesar as melhores opções para o público responder, interagir ou até
configurar certas histórias (interatividade) e pensar em maneiras de ligar o
artigo a outros artigos, arquivos, recursos, etc., através de hiperligações
(hipertexto) (DEUZE, 2006, p. 18).
O jornalista da redação digital tenta trabalhar para um púbico específico,
como ocorre na sua versão impressa. A diferença é que no computador, o
profissional busca uma fórmula para ser global e despertar o interesse de
leitores de diversas partes do mundo. A internet ainda implora pelo
desenvolvimento de normas, linguagens e modelos comerciais apropriados
(QUADROS, 2002, p. 11).

Diante da abundância informativa na web, Corrêa e Bertocchi (2012) falam da
importância de uma “curadoria da informação”, no sentido de uma organização das
informações na rede. Elas citam Rosenbaum (2011), que chama esse volume
crescente de informações de "tsunami de dados" e Beiguelman (2011) que o chama
de "dadosfera". Sem dúvida, o excesso de informação tende a continuar crescendo
e lidar com isso torna-se um grande desafio.
O maior mecanismo de busca da rede, o Google, por exemplo, só consegue
varrer 5% das informações disponíveis na internet. E apesar de surgirem
ferramentas de pesquisa como buscadores personalizados e direcionados,
a atividade de curar a informação é imprescindível, pois as ferramentas e os
aplicativos não dão conta de tudo o que acontece e não tem o olhar humano
também (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 61).

As autoras defendem que há muito mais uma “curadoria algorítmica de
informação do que propriamente humana” (CORRÊA; BERTOCCHI, 2012 apud
CORRÊA, 2012, p. 26). Isto por que "os algoritmos estão desempenhando um papel
sociotécnico cada vez mais importante na mediação entre jornalistas, audiência e
produtos de mídia" (ANDERSON, 2011, p. 529 apud CORRÊA E BERTOCCHI,
2012, p. 31). O argumento de Anderson se justifica pelo fato de diversos sites já
utilizarem algoritmos para organizar seu conteúdo, como por exemplo: os
buscadores (Google e outros), as redes sociais (Facebook), os sistemas
agregadores baseados em RSS (GoogleReader), os sistemas de recomendação
(Amazon, LastFM, Spotify), os produtos baseados em feeds (Paper.Ly, Scoop.it,
Storify, Washington Post Social Reader) e as ferramentas de organização da
41

informação por meio de imagens (Pinterest, WeHeartIrt). Há também os sistemas
publicadores de conteúdo ou CMS (Content Management Systems), publicadores de
blogs (Wordpress, Tumblr), publicadores personalizados (Joomla, Drupal) e
publicadores proprietários criados por empresas informativas. As autoras nomeiam
esses exemplos como "ferramentas de organização da abundância informática por
meio de algoritmos" (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 30).
Na verdade, a atividade de curadoria de informação está presente na Internet
desde seus primórdios, visto que os mecanismos de busca sempre priorizaram a
organização e a recuperação das buscas de formas e com hierarquias e prioridades
diferentes. E por volta de 1997 e 1998, os primeiros blogs já faziam um tipo de
curadorias através da recomendação e divulgação de links.
No Jornalismo Online, o curador de informação deve “combinar competências
de re-mediação, agregação de audiências, mineração de dados, inteligência
distribuída, agenciamentos e adição de valor visando o exercício da ação
comunicativa que, em última instância, objetiva a fixação e disseminação de
mensagens, e a respectiva obtenção de valor como retorno” (CORRÊA;
BERTOCCHI, 2012 apud CORRÊA, 2012, p. 34). Dessa forma, as ferramentas
baseadas em algoritmos funcionam como parceiras do comunicador.
É de se esperar que o comunicador-curador consiga participar dialogando
com a tecnologia da construção de algoritmos, sistemas CMS e de
aplicativos e, simultaneamente, ter uma visão sócio-antropológica do
comportamento e das tendências de seu público-alvo (CORRÊA;
BERTOCCHI, 2012 apud CORRÊA, 2012, p. 37).

Beiguelman (2011 apud CORRÊA; BERTOCCHI, 2012) propõe três possíveis
modelos de curadoria online, combinando elementos humanos e não-humanos. São
eles: curador como filtrador, curador como agenciador e a plataforma como
dispositivo curatorial. O curador-filtrador contextualiza informações e observa seus
efeitos. Já o curador-agenciador seleciona e relaciona os conteúdos, além de fazer a
mediação com os receptores da informação. O dispositivo curatorial, por sua vez,
potencializa e facilita a organização das informações por meio de suas
funcionalidades, que amplificam estrategicamente a produção e seleção de
conteúdo.
A esses três modelos de curadoria propostos por Beigueilman (2011), Corrêa
e Bertocchi (2012) adicionam mais dois, que são: o curador como crítico e a
42

recomendação como curadoria. No primeiro caso, o curador seleciona e compartilha
alguma informação e faz um comentário ou crítica sobre a mesma. Já o segundo
caso está relacionado aos filtros de informação que visam identificar perfis de
consumo: um processo que ocorre por meio de softwares que tentam antecipar os
interesses do consumidos nos ambientes digitais ou por meio de agentes humanos
que atualizam o sistema com informações e categorizações, como ocorre com a
folksonomia (tagueamento), por exemplo.
Se devidamente inseridas nas rotinas produtivas das redações online, as
técnicas de SEO podem ser incluídas entre essas várias formas de se organizar
informações na Web, uma vez que contribuem para a localização de conteúdo de
acordo com os interesses de cada leitor. Apesteguy (2013) afirma que as principais
vantagens em aplicar técnicas de SEO nas redações de sites de notícia são: trazer
mais leitores em curto prazo; tornar-se referência na Web sobre um determinado
assunto; e aumentar o número de comentários, curtir, compartilhamentos e links
apontando para sua matéria. O que ajudará a firmar sua posição nos resultados de
busca. Alvarez (2011) pontua que é possível que jornalistas usem técnicas de SEO
sem precisar alterar seu estilo de redação. Não são necessárias intervenções
forçadas e sem sentido para alcançar relevância perante os buscadores.
Para melhor ilustrar o atual interesse das grandes redações online nas
possibilidades do SEO para a geração de tráfego aos seus sites e para a
pulverização das notícias, o capítulo a seguir traz a experiência de quatro
profissionais de diferentes grupos de comunicação.
43

3 MÉTODO E ANÁLISE

Para a viabilização deste levantamento sobre a utilização das técnicas de
Search Engine Optimization no Jornalismo Online brasileiro, apresentar-se-á neste
capítulo a experiência de quatro profissionais que atuam em redações online no
Brasil. A seguir descrevem-se os procedimentos metodológicos que guiam o estudo.

3.1 PROCEDIMENTOS METODOLÓGICOS

A fim de reunir informações que complementem a literatura apresentada,
realizou-se uma pesquisa qualitativa, sem se preocupar com representatividade
numérica, generalizações estatísticas e relações lineares de causa e efeito. O
enfoque é a compreensão das informações de modo mais global, relacionando
fatores e privilegiando contextos.
Os dados coletados nessas pesquisas são descritivos, retratando o maior
número possível de elementos existentes na realidade estudada. Preocupase muito mais com o processo do que com o produto (PRODANOV;
FREITAS, 2009, p. 70).

A literatura verificada compreende aspectos históricos da Internet, dos
mecanismos de busca, das técnicas de SEO e do Jornalismo Online e as mudanças
pela qual esse passou. Nesse sentido, o intuito foi reunir a literatura disponível,
traçando um fio condutor e conector entre os assuntos e os complementando com o
ponto de vista de profissionais da área.
Quanto a seus objetivos, esta é uma pesquisa exploratória, já que visa
conhecer em maior profundidade o tema a ser investigado, que conta ainda com
poucos estudos específicos. ”Este tipo de pesquisa é realizado especialmente quando o
tema escolhido é pouco explorado e torna-se difícil sobre ele formular hipóteses precisas e
operacionalizáveis” (GIL, 2008, p. 27).

A pesquisa exploratória possui planejamento flexível, o que permite o estudo
do tema sob diversos ângulos e aspectos. Em geral, envolve: levantamento
bibliográfico; entrevistas com pessoas que tiveram experiências práticas com o
44

problema pesquisado; análise de exemplos que estimulem a compreensão, segundo
Prodanov e Freitas (2009).
Quanto aos procedimentos adotados para a coleta de dados, realizou-se
inicialmente uma pesquisa bibliográfica em livros, artigos científicos e sites de
referência nas áreas pesquisadas. “A principal vantagem da pesquisa bibliográfica
reside no fato de permitir ao investigador a cobertura de uma gama de fenômenos
muito mais ampla do que aquela que poderia pesquisar diretamente” (GIL, 2008, p.
50).
Castells (2003) e Limeira (2003) foram os principais autores utilizados ao
abordar Internet e Web. Já Fragoso (2007) e Kendzerski (2005) contribuíram com
seus estudos sobre mecanismos de busca. Para tratar de SEO, foram consultados
Apesteguy (2013), Ricotta (2008), Marcel (2009), Felipini (2010), Battelle (2006),
Alvarez (2012), entre outros. Por sua vez, os estudos de Quadros (2002), Palacios
(2003) e Pereira e Adghirni (2011) muito contribuíram para a apresentação da
história do Jornalismo Online e suas principais caracterítiscas. As mudanças do
fazer jornalístico ficaram a cargo de Corrêa e Bertocchi (2012) e Rasêra (2010).
Foram realizadas também entrevistas estruturadas com quatro profissionais
com conhecimento em SEO que atuam junto a redações online, a fim de coletar
informações sobre a necessidade de conhecimento sobre SEO entre jornalistas que
atuam ou irão atuar em redações online do Brasil. Segundo Prodanov e Freitas
(2009), a entrevista é a obtenção de informações de um entrevistado sobre
determinado assunto ou problema.
Enquanto técnica de coleta de dados, a entrevista é bastante adequada
para a obtenção de informações acerca do que as pessoas sabem, crêem,
esperam, sentem ou desejam, pretendem fazer, fazem ou fizeram, bem
como acerca das suas explicações ou razões a respeito das coisas
precedentes (SELLTIZ, 1967, p. 273 apud GIL, 2008, p. 109).

Quanto à entrevista estruturada, Prodanov e Freitas afirmam: “é quando o
entrevistador segue roteiro preestabelecido. Ocorre a partir de um formulário
elaborado com antecedência” (PRODANOV; FREITAS, 2009, p. 106). Para utilizar o
conteúdo das entrevistas realizou-se análise de conteúdo. Laurence Bardin (2004)
define a análise de conteúdo como um conjunto de técnicas de análise das
comunicações que visa obter, por procedimentos sistemáticos e objetivos de
descrição do conteúdo das mensagens, “indicadores (quantitativos ou não) que
45

permitam

a

inferência

de

conhecimentos

relativos

às

condições

de

produção/recepção (variáveis inferidas) destas mensagens” (BARDIN, 2004, p. 37).
A análise de conteúdo possui duas funções: heurística, onde enriquece a
tentativa exploratória e aumenta a propensão à descoberta, em uma análise “para
ver o que dá” (BARDIN, 2004, p. 25); e de administração de prova, onde hipóteses
sob a forma de questões ou afirmações provisórias apelarão para o método de
análise sistemática e serão verificadas para obter confirmação ou não. Para o autor,
é uma análise “para servir de prova” (BARDIN, 2004, p. 25).
Na sequência, apresentar-se-á cada um dos grupos de comunicação
representados pelos entrevistados.
A Infoglobo surgiu através do Jornal O Globo, que começou a ser distribuído
no Rio de Janeiro em 1925. O Globo foi o primeiro no país e em toda a América
Latina a disponibilizar seu conteúdo impresso no Kindle, o leitor para livros digitais
(e-books) produzido pela Amazon. Em 2006, o site de O Globo completou 10 anos e
teve seu layout renovado. O papel da Infoglobo, segundo histórico no site 10 do
mesmo, é apurar os fatos para que possam ser veiculados nos jornais O Globo,
Extra e Expresso e sites da Globo do Jornal Extra e da Agência O Globo. Em
dezembro de 1998, a Infoglobo inaugurou o maior Parque Gráfico da América
Latina. O projeto entrou para a História e se tornou uma referência em tecnologia e
qualidade.
O Grupo RBS foi fundado em 31 de agosto de 1957 por Maurício Sirotski
Sobrinho, que naquele ano assumiu a direção da Rádio Gaúcha. Em 1962, entrou
no ar a TV Gaúcha, hoje RBS TV que, por sua vez, conta com emissoras afiliadas à
Rede Globo nos estados do Rio Grande do Sul e Santa Catarina. Em 1970, o grupo
assumiu o controle do jornal Zero Hora. Os anos que se seguiram foram de
expansão e novas aquisições e atualmente o Grupo RBS já conta com mais de 6500
colaboradores, segundo o site do grupo11.
Por sua vez, o Correio Braziliense “é um jornal brasileiro com sede em
Brasília, pertencente ao Grupo Diários Associados”12, que foi fundado em 21 de abril
de 1960 por Assis Chateaubriand. E mesmo após a morte de Assis Chateaubriand, o
Correio continuou a pertencer aos Diários Associados, sendo o principal jornal da
Capital Federal. Na gestão do editor executivo Ricardo Noblat, foi o jornal brasileiro
10

Disponível em https://www.infoglobo.com.br/Anuncie/institucional.aspx.
Disponível em http://www.gruporbs.com.br/quem_somos/index.php?pagina=grupoRBS.
12
Disponível em http://pt.wikipedia.org/wiki/Correio_Braziliense.
11
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online
e Jornalismo Online

More Related Content

Similar to e Jornalismo Online

MONOGRAFIA (ERICK NUNES): SEO, CRITÉRIOS DE NOTICIABILIDADE E VALOR-NOTÍCIA: ...
MONOGRAFIA (ERICK NUNES): SEO, CRITÉRIOS DE NOTICIABILIDADE E VALOR-NOTÍCIA: ...MONOGRAFIA (ERICK NUNES): SEO, CRITÉRIOS DE NOTICIABILIDADE E VALOR-NOTÍCIA: ...
MONOGRAFIA (ERICK NUNES): SEO, CRITÉRIOS DE NOTICIABILIDADE E VALOR-NOTÍCIA: ...ercknunes
 
GESTÃO DE PROJETOS ÁGEIS: UMA ANÁLISE DOS PRINCIPAIS PORTAIS DE CONTEÚDO NA I...
GESTÃO DE PROJETOS ÁGEIS: UMA ANÁLISE DOS PRINCIPAIS PORTAIS DE CONTEÚDO NA I...GESTÃO DE PROJETOS ÁGEIS: UMA ANÁLISE DOS PRINCIPAIS PORTAIS DE CONTEÚDO NA I...
GESTÃO DE PROJETOS ÁGEIS: UMA ANÁLISE DOS PRINCIPAIS PORTAIS DE CONTEÚDO NA I...cmonty
 
SEARCH ENGINE OPTIMIZATION (SEO) PARA BIBLIOTECAS VIRTUAIS: ESTUDO DE CASO DA...
SEARCH ENGINE OPTIMIZATION (SEO) PARA BIBLIOTECAS VIRTUAIS: ESTUDO DE CASO DA...SEARCH ENGINE OPTIMIZATION (SEO) PARA BIBLIOTECAS VIRTUAIS: ESTUDO DE CASO DA...
SEARCH ENGINE OPTIMIZATION (SEO) PARA BIBLIOTECAS VIRTUAIS: ESTUDO DE CASO DA...Fabiana Andrade Pereira
 
Otimização de Sites com SEO - TCC IF Goiano - Campus Morrinhos
Otimização de Sites com SEO - TCC IF Goiano - Campus MorrinhosOtimização de Sites com SEO - TCC IF Goiano - Campus Morrinhos
Otimização de Sites com SEO - TCC IF Goiano - Campus MorrinhosCarloshps Webdesigner
 
Audiência na Internet: Entre Pessoas e Cookies
Audiência na Internet: Entre Pessoas e CookiesAudiência na Internet: Entre Pessoas e Cookies
Audiência na Internet: Entre Pessoas e CookiesLeonardo Longo
 
GEOMARKETING DIGITAL - análise sobre as mudanças no comportamento do consumid...
GEOMARKETING DIGITAL - análise sobre as mudanças no comportamento do consumid...GEOMARKETING DIGITAL - análise sobre as mudanças no comportamento do consumid...
GEOMARKETING DIGITAL - análise sobre as mudanças no comportamento do consumid...Milson Veloso
 
Aplicativo siga manaus
Aplicativo siga manausAplicativo siga manaus
Aplicativo siga manausGustavo Cruz
 
DIVISÃO E ORGANIZAÇÃO DO TRABALHO NO DESENVOLVIMENTO DE SOFTWARE
DIVISÃO E ORGANIZAÇÃO DO TRABALHO NO DESENVOLVIMENTO DE SOFTWAREDIVISÃO E ORGANIZAÇÃO DO TRABALHO NO DESENVOLVIMENTO DE SOFTWARE
DIVISÃO E ORGANIZAÇÃO DO TRABALHO NO DESENVOLVIMENTO DE SOFTWAREMário Ferreira
 
Gestão de ong de pequeno e médio porte
Gestão de ong de pequeno e médio porteGestão de ong de pequeno e médio porte
Gestão de ong de pequeno e médio portejcfialho
 
Proposta TCC - METODOLOGIA SCRUM APLICADA AOS PROCESSOS DE GERÊNCIA E DESENVO...
Proposta TCC - METODOLOGIA SCRUM APLICADA AOS PROCESSOS DE GERÊNCIA E DESENVO...Proposta TCC - METODOLOGIA SCRUM APLICADA AOS PROCESSOS DE GERÊNCIA E DESENVO...
Proposta TCC - METODOLOGIA SCRUM APLICADA AOS PROCESSOS DE GERÊNCIA E DESENVO...Juliano Oliveira
 
Programa de Pós-Graduação em Engenharia do Conhecimento - Aula Inaugural
Programa de Pós-Graduação em Engenharia do Conhecimento - Aula InauguralPrograma de Pós-Graduação em Engenharia do Conhecimento - Aula Inaugural
Programa de Pós-Graduação em Engenharia do Conhecimento - Aula InauguralRoberto C. S. Pacheco
 
Meetup SEO - Grupo Marketing Digital Porto Portugal
Meetup SEO - Grupo Marketing Digital Porto PortugalMeetup SEO - Grupo Marketing Digital Porto Portugal
Meetup SEO - Grupo Marketing Digital Porto PortugalBruno Cardoso
 
Arquitetura da informação para blogs
Arquitetura da informação para blogsArquitetura da informação para blogs
Arquitetura da informação para blogsLaura Inafuko
 
Como ser encontrado na Internet - A utilização de ferramentas SEO
Como ser encontrado na Internet - A utilização de ferramentas SEOComo ser encontrado na Internet - A utilização de ferramentas SEO
Como ser encontrado na Internet - A utilização de ferramentas SEORicardo Pritsch
 
A relevância das redes sociais para as organizações
A relevância das redes sociais para as organizaçõesA relevância das redes sociais para as organizações
A relevância das redes sociais para as organizaçõesAlef Horsth Tavares
 
A relevância das redes sociais para as organizações
A relevância das redes sociais para as organizaçõesA relevância das redes sociais para as organizações
A relevância das redes sociais para as organizaçõesAlef Horsth Tavares
 

Similar to e Jornalismo Online (20)

MONOGRAFIA (ERICK NUNES): SEO, CRITÉRIOS DE NOTICIABILIDADE E VALOR-NOTÍCIA: ...
MONOGRAFIA (ERICK NUNES): SEO, CRITÉRIOS DE NOTICIABILIDADE E VALOR-NOTÍCIA: ...MONOGRAFIA (ERICK NUNES): SEO, CRITÉRIOS DE NOTICIABILIDADE E VALOR-NOTÍCIA: ...
MONOGRAFIA (ERICK NUNES): SEO, CRITÉRIOS DE NOTICIABILIDADE E VALOR-NOTÍCIA: ...
 
Optimização de Conteúdos para Motores Busca 22.Out.2009
Optimização de Conteúdos para Motores Busca 22.Out.2009Optimização de Conteúdos para Motores Busca 22.Out.2009
Optimização de Conteúdos para Motores Busca 22.Out.2009
 
GESTÃO DE PROJETOS ÁGEIS: UMA ANÁLISE DOS PRINCIPAIS PORTAIS DE CONTEÚDO NA I...
GESTÃO DE PROJETOS ÁGEIS: UMA ANÁLISE DOS PRINCIPAIS PORTAIS DE CONTEÚDO NA I...GESTÃO DE PROJETOS ÁGEIS: UMA ANÁLISE DOS PRINCIPAIS PORTAIS DE CONTEÚDO NA I...
GESTÃO DE PROJETOS ÁGEIS: UMA ANÁLISE DOS PRINCIPAIS PORTAIS DE CONTEÚDO NA I...
 
SEARCH ENGINE OPTIMIZATION (SEO) PARA BIBLIOTECAS VIRTUAIS: ESTUDO DE CASO DA...
SEARCH ENGINE OPTIMIZATION (SEO) PARA BIBLIOTECAS VIRTUAIS: ESTUDO DE CASO DA...SEARCH ENGINE OPTIMIZATION (SEO) PARA BIBLIOTECAS VIRTUAIS: ESTUDO DE CASO DA...
SEARCH ENGINE OPTIMIZATION (SEO) PARA BIBLIOTECAS VIRTUAIS: ESTUDO DE CASO DA...
 
Otimização de Sites com SEO - TCC IF Goiano - Campus Morrinhos
Otimização de Sites com SEO - TCC IF Goiano - Campus MorrinhosOtimização de Sites com SEO - TCC IF Goiano - Campus Morrinhos
Otimização de Sites com SEO - TCC IF Goiano - Campus Morrinhos
 
GUIA - Achei A..Z
GUIA - Achei A..ZGUIA - Achei A..Z
GUIA - Achei A..Z
 
Audiência na Internet: Entre Pessoas e Cookies
Audiência na Internet: Entre Pessoas e CookiesAudiência na Internet: Entre Pessoas e Cookies
Audiência na Internet: Entre Pessoas e Cookies
 
Resenha Crítica
Resenha CríticaResenha Crítica
Resenha Crítica
 
GEOMARKETING DIGITAL - análise sobre as mudanças no comportamento do consumid...
GEOMARKETING DIGITAL - análise sobre as mudanças no comportamento do consumid...GEOMARKETING DIGITAL - análise sobre as mudanças no comportamento do consumid...
GEOMARKETING DIGITAL - análise sobre as mudanças no comportamento do consumid...
 
Aplicativo siga manaus
Aplicativo siga manausAplicativo siga manaus
Aplicativo siga manaus
 
DIVISÃO E ORGANIZAÇÃO DO TRABALHO NO DESENVOLVIMENTO DE SOFTWARE
DIVISÃO E ORGANIZAÇÃO DO TRABALHO NO DESENVOLVIMENTO DE SOFTWAREDIVISÃO E ORGANIZAÇÃO DO TRABALHO NO DESENVOLVIMENTO DE SOFTWARE
DIVISÃO E ORGANIZAÇÃO DO TRABALHO NO DESENVOLVIMENTO DE SOFTWARE
 
Gestão de ong de pequeno e médio porte
Gestão de ong de pequeno e médio porteGestão de ong de pequeno e médio porte
Gestão de ong de pequeno e médio porte
 
Monografia
MonografiaMonografia
Monografia
 
Proposta TCC - METODOLOGIA SCRUM APLICADA AOS PROCESSOS DE GERÊNCIA E DESENVO...
Proposta TCC - METODOLOGIA SCRUM APLICADA AOS PROCESSOS DE GERÊNCIA E DESENVO...Proposta TCC - METODOLOGIA SCRUM APLICADA AOS PROCESSOS DE GERÊNCIA E DESENVO...
Proposta TCC - METODOLOGIA SCRUM APLICADA AOS PROCESSOS DE GERÊNCIA E DESENVO...
 
Programa de Pós-Graduação em Engenharia do Conhecimento - Aula Inaugural
Programa de Pós-Graduação em Engenharia do Conhecimento - Aula InauguralPrograma de Pós-Graduação em Engenharia do Conhecimento - Aula Inaugural
Programa de Pós-Graduação em Engenharia do Conhecimento - Aula Inaugural
 
Meetup SEO - Grupo Marketing Digital Porto Portugal
Meetup SEO - Grupo Marketing Digital Porto PortugalMeetup SEO - Grupo Marketing Digital Porto Portugal
Meetup SEO - Grupo Marketing Digital Porto Portugal
 
Arquitetura da informação para blogs
Arquitetura da informação para blogsArquitetura da informação para blogs
Arquitetura da informação para blogs
 
Como ser encontrado na Internet - A utilização de ferramentas SEO
Como ser encontrado na Internet - A utilização de ferramentas SEOComo ser encontrado na Internet - A utilização de ferramentas SEO
Como ser encontrado na Internet - A utilização de ferramentas SEO
 
A relevância das redes sociais para as organizações
A relevância das redes sociais para as organizaçõesA relevância das redes sociais para as organizações
A relevância das redes sociais para as organizações
 
A relevância das redes sociais para as organizações
A relevância das redes sociais para as organizaçõesA relevância das redes sociais para as organizações
A relevância das redes sociais para as organizações
 

e Jornalismo Online

  • 1. ANDRESSA WARKEN SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE: LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO NOVO HAMBURGO 2013
  • 2. 2 ANDRESSA WARKEN SEARCH ENGINE OPTIMIZATION EM REDAÇÕES ONLINE: LEVANTAMENTO DE EXPERIÊNCIAS NO JORNALISMO BRASILEIRO Monografia apresentada como requisito parcial para a obtenção do título de Bacharel em Comunicação Social, Habilitação em Jornalismo, no Curso de Comunicação Social da Universidade Feevale, de Novo Hamburgo. Professora orientadora: Profa. Dra. Sandra Portella Montardo Novo Hamburgo 2013
  • 3. 3 ANDRESSA WARKEN Monografia apresentada como Trabalho de Conclusão do Curso de Comunicação Social, Habilitação em Jornalismo, com título “Search Engine Optimization em redações online: levantamento de experiências no Jornalismo Brasileiro”, submetido ao corpo docente da Universidade Feevale como requisito necessário para a obtenção do Grau de Bacharel em Comunicação Social – Habilitação em Jornalismo. Aprovado por: __________________________ Profa. Dra. Sandra Portella Montardo Professora Orientadora __________________________ Thiago Mendes Banca Examinadora __________________________ Willian Araújo Banca Examinadora Novo Hamburgo, novembro de 2013.
  • 4. 4 RESUMO Esta pesquisa investiga o uso das técnicas de Search Engine Optimization nas redações online, considerando o relato de experiências de profissionais da área familiarizados com o tema em questão. Os autores que fundamentam este estudo são Castells (2003), Fragoso (2007), Felipini (2010), Palacios (2003), Quadros (2002), Pereira e Adghirni (2011), Corrêa e Bertocchi (2012), e outros. O objetivo geral foi levantar as experiências e práticas de jornalistas brasileiros em relação ao Search Engine Optimization. Como objetivos específicos, buscou-se conhecer a história da Internet e do Jornalismo Online; conhecer as técnicas básicas de SEO e verificar quais as práticas recomendáveis e o conhecimento necessários aos jornalistas nesse assunto. As considerações finais apontam que os grandes grupos de comunicação já estão atentos às possibilidades da aplicação de SEO para a geração de tráfego aos sites de notícia. Verificou-se ainda que o conhecimento em SEO não é ainda um pré-requisito, mas sim um diferencial, para os jornalistas que pretendem atuar em redações online. Palavras-chave: otimização para busca. Jornalismo Online, SEO, mecanismos de busca,
  • 5. 5 ABSTR AC T This research investigates the use of the SEO’s techniques in Online Journalism. The authors that underlie this study are Castells (2003), Fragoso (2007), Felipini (2010), Palacios (2003), Quadros (2002), Pereira e Adghirni (2011), Corrêa e Bertocchi (2012) and others. The overall goal was to raise the experiences and practices of Brazilian journalists in Search Engine Optimization. The specific objectives are to know the history of the Internet and Online Journalism; to know the basic techniques of SEO and check the best practices and the knowledge required of the journalists on this subject. The conclusions point that the big media groups are aware of the possibilities in applying SEO to generate traffic to news sites. The conclusions point out that . It was observed, too, that SEO knowledge is still not a prerequisite, but a differential for journalists who intend to work in online newsrooms. Keywords: Online Journalism, SEO, serch engines, search optimization.
  • 6. 6 SUMÁRIO INTRODUÇÃO.................................................................................................7 1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA............................9 1.1 INTERNET E WEB.................................................................................9 1.2 MECANISMOS DE BUSCA.................................................................13 1.2.1 Funcionamento dos mecanismos de busca...................................17 1.3 O QUE É SEO?....................................................................................19 1.3.1 SEO on-page.................................................................................20 1.3.2 SEO off-page.................................................................................25 2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER JORNALÍSTICO.........................................................................................................27 2.1 CARACTERÍSTICAS DO JORNALISMO ONLINE..............................27 2.2 BREVE HISTÓRICO DO JORNALISMO ONLINE...............................29 2.3 MUDANÇAS NO FAZER JORNALÍSTICO..........................................36 3 MÉTODO E ANÁLISE................................................................................43 3.1 PROCEDIMENTOS METODOLÓGICOS............................................43 3.2 RESULTADOS: APLICAÇÃO DAS TÉCNICAS DE SEO NAS REDAÇÕES ONLINE..............................................................................................46 3.3 DISCUSSÃO DOS RESULTADOS......................................................51 CONSIDERAÇÕES FINAIS...........................................................................54 REFERÊNCIAS.............................................................................................55 ANEXO A – ENTREVISTA ESTRUTURADA COM PROFISSIONAIS..........59
  • 7. 7 INTRODUÇÃO A World Wide Web se desenvolveu rapidamente e o número de páginas cresce substancialmente ano após ano. Nesse sentido, os mecanismos de busca surgiram como uma forma de organizar toda esta informação disponível na rede. O primeiro indexador de páginas surgiu em 1990 e se chamava Archie. Em 1999, um novo mecanismo de busca chamado Google (ainda em versão beta) se tornou amplamente conhecido, por utilizar um algoritmo de classificação inovador. Com o passar dos anos, o mercado de buscas foi crescendo e uma boa colocação nas páginas de resultados dos mecanismos de busca tornou-se cada vez mais cobiçada. O funcionamento dos mecanismos foi sendo aprimorado e seus algoritmos passaram a ser cada vez mais secretos e exatos, o que estimulou o surgimento da indústria de SEO, que consiste em um conjunto de técnicas e métodos para alcançar uma boa indexação nos mecanismos de busca. Atentas a esse movimento, equipes responsáveis por sites, inclusive sites de notícia, passaram a atentar mais para questões como a arquitetura de informação e a otimização de seu conteúdo. Nesse ponto, que entra o papel do jornalista. Quais as práticas das redações online brasileiras em relação ao Search Engine Optimization? É justamente esse questionamento que o presente trabalho busca responder. O objetivo geral desta pesquisa é levantar as experiências e práticas de jornalistas brasileiros em relação ao Search Engine Optimization. Já os objetivos específicos são conhecer a história da Internet e do Jornalismo Online; conhecer as técnicas básicas de SEO e verificar quais as práticas recomendáveis e o conhecimento necessário aos jornalistas quanto a esse assunto. Para dar conta dos objetivos do trabalho, a abordagem metodológica adotada baseou-se em uma revisão literária, apoiada pela realização de entrevista estruturada com quatro profissionais que atuam com Search Engine Optimization em sites de grandes grupos de comunicação. O primeiro capítulo apresenta “A Internet, a web e os mecanismos de busca”, em que se traz a evolução da internet e dos mecanismos de busca, a partir de dados históricos. O Search Engine Optimization, um dos motes principais deste estudo, também é apresentando, reunindo as principais técnicas utilizadas. Os
  • 8. 8 principais autores utilizados neste capítulo são Castells (2003), Fragoso (2007) e Felipini (2010). O segundo capítulo apresenta o “Jornalismo Online”. Inicialmente, são levantados dados históricos e características dessa prática e, em um segundo momento, as mudanças que ocorreram tanto no perfil comportamental dos consumidores de notícias quanto nas rotinas produtivas dos jornalistas. Nesse capítulo, os principais autores utilizados são Palacios (2003), Quadros (2002), Pereira e Adghirni (2011) e Corrêa e Bertocchi (2012). No terceiro capítulo, apresenta-se os procedimentos metodológicos, as respostas da entrevista estruturada e uma análise dessas respostas de modo geral. Para finalizar, estabelece-se uma conexão dos resultados obtidos com a literatura consultada.
  • 9. 9 1 A INTERNET, A WEB E OS MECANISMOS DE BUSCA A fim de mapear as práticas de Search Engine Optimization no Jornalismo Online brasileiro, o foco deste primeiro capítulo será internet, mecanismos de busca e SEO. No primeiro item tratar-se-á do surgimento da internet e de sua evolução para a World Wide Web. No segundo item, entrarão em pauta os mecanismos de busca e a forma como eles foram sendo aperfeiçoados ao longo dos anos. Na sequência, será abordado o funcionamento dos mecanismos, oferecendo aos leitores o embasamento adequado para compreender a importância das técnicas de SEO para o Jornalismo Online, foco do capítulo seguinte. 1.1 INTERNET E WEB Arpanet era como se chamava a primeira rede de computadores, que entrou em funcionamento em 1° de setembro de 1969. Ela surgiu a partir de um trabalho de uma instituição de pesquisa do Departamento de Defesa dos Estados Unidos chamada ARPA (Advanced Research Projects Agency). O principal objetivo dessa instituição era “mobilizar recursos de pesquisa, particularmente do mundo universitário, com o objetivo de alcançar superioridade tecnológica militar em relação à União Soviética na esteira do lançamento do primeiro Sputnik em 1957” (CASTELLS, 2003, p. 13). O departamento da ARPA que esteve envolvido no desenvolvimento da Arpanet chamava-se IPTO (Information Processing Techniques Office) e visava ao estímulo da pesquisa em computação interativa. Para montar a rede, os pesquisadores utilizaram a tecnologia de “comutação por pacote”, desenvolvida independentemente por Paul Baran da Rand Corporation (centro de pesquisas californiano que trabalhava para o Pentágono à época) e por Donals Davies do British National Physical Laboratory. A Arpanet foi desenvolvida para “permitir aos vários centros de computadores e grupos de pesquisa que trabalhavam para a agência compartilhar on-line tempo de computação”, sendo que os primeiros nós da rede estavam na Universidade da Califórnia em Los Angeles, no SRI (Standford Research Intitute), na Universidade da Califórnia em Santa Barbara e
  • 10. 10 na Universidade de Utah, segundo Castells (2003). Ainda de acordo com o autor, o passo seguinte da ARPA “foi tornar possível a conexão da Arpanet com outras redes de computadores, a começar pelas redes de comunicação que a ARPA estava administrando, a PRNET e a SATNET”. Foi no ano de 1973 que a arquitetura básica da Internet foi delineada, por meio de um artigo elaborado pelos cientistas da computação Robert Kahn (da ARPA) e Vint Cerf (da Universidade de Standford). Este artigo definia que, para estabelecer comunicação entre si, as redes de computadores necessitavam de protocolos de comunicação padronizados. Em 1978, Vint Cerf, Jon Postel e Steve Crocker, trabalhando na Universidade da Califórnia, dividiram o TCP (protocolo de controle de transmissão) em duas partes, acrescentando um protocolo intra-rede (IP), o que gerou o TCP/IP, o padrão segundo o qual a Internet continua operando até hoje (CASTELLS, 2003, p. 14-15). Dois anos após, em 1975, a Arpanet foi transferida para a DCA (Defense Communication Agency), que criou a Defense Data Network com o intuito de tornar a comunicação por computador disponível aos vários ramos das Forças Armadas. Já “em 1983, o Departamento de Defesa, preocupado com possíveis brechas na segurança, resolveu criar o MILNET, uma rede independente para usos militares específicos”. (CASTELLS, 2003, p.14). Depois disso, a Arpanet ganhou o nome de ARPA-INTERNET e passou a ser usada exclusivamente para fins de pesquisa. Em 1984, A NSF (National Science Foundation) montou sua própria rede de comunicação entre computadores, a NSFNET, que quatro anos depois passou a utilizar a infraestrutura física da rede da ARPA-INTERNET. E quando a Arpanet se tornou tecnologicamente obsoleta, o governo dos EUA confiou sua administração à NSF; a qual na sequência encaminhou a privatização da Internet. À época, “a maioria dos computadores nos EUA tinha capacidade de entrar em rede, o que lançou os alicerces para a difusão da interconexão de redes” (CASTELLS, 2003, p. 15). A NSFNET foi extinta em 1995, o que abriu caminho para a operação privada da Internet. E essa “rede global de redes de computadores” cresceu rapidamente, já que, no início da década de 1990, muitos provedores de serviços da Internet já possuíam suas próprias redes e estabeleciam suas portas de comunicação em bases comerciais.
  • 11. 11 Além da contribuição da Arpanet, o formato atual da Internet foi resultado de uma tradição de base de formação de redes de computadores. Um dos fatores influentes foi o BBS (Bulletin Board Systems): um movimento que surgiu da interconexão de computadores pessoais no final da década de 1970. Em 1977, dois estudantes de Chicago, Ward Christensen e Randy Suess, escreveram um programa, que batizaram de MODEM, que permitia a transferência de arquivos entre seus computadores pessoais; em 1978 fizeram um outro, o Computer Bulletin Board System, que permitia aos computadores armazenar e transmitir mensagens (CASTELLS, 2003, p.16). Já em 1983, o programador Tom Jennings iniciou uma rede de BBS chamada de FIDONET, que é até hoje a rede de comunicação por computadores mais barata e acessível do mundo, por se basear em PCs e ligações por linhas telefônicas convencionais. Outra tendência decisiva para a formação de redes de computadores veio da comunidade dos usuários do UNIX, sistema operacional desenvolvido pelos Laboratórios Bell, liberado para as universidades em 1974. “O sistema logo se tornou a língua franca da maior parte dos departamentos de ciência da computação e os estudantes logo se tornaram peritos na sua manipulação” (CASTELLS, 2003, p.16). Com base no programa UUCP (UNIX-to-UNIX copy) da Bell, que permitia que computadores copiassem arquivos uns dos outros; em 1979, quatro estudantes da Carolina do Norte projetaram um programa para comunicação entre computadores UNIX. Uma versão aperfeiçoada desse programa foi distribuída gratuitamente numa conferência de usuários de UNIX em 1980. Isso permitiu a formação de redes de comunicação entre computadores – a Usenet News - fora do backbone (infraestrutura física) da Arpanet (CASTELLS, 2003, p.16). Em 1980, quando a Usenet News chegou ao departamento de ciência da computação da Universidade da Califórnia em Berkeley, um grupo de estudantes de pós-graduação empenhou-se em desenvolver uma ponte entre a Arpanet – que já possuía um nó na universidade – e a Usenet. “Dali em diante, a Usenet ficou vinculada à Arpanet, as duas tradições gradualmente se fundiram e várias redes de computadores passaram a poder se comunicar entre si” (CASTELLS, 2003, p. 1617). Dessa maneira, essas redes finalmente se congregaram na forma da Internet. No entanto, a difusão da Internet na sociedade em geral ocorreu somente após o desenvolvimento da World Wide Web. O projeto de um sistema global de
  • 12. 12 hipertexto foi iniciado em 1989, por um grupo de pesquisadores chefiado por Tim Berners-Lee e Robert Cailliau, no CERN, o Laboratório Europeu para a Física de Partículas, localizado em Genebra. Berners-Lee “definiu e implementou o software que permitia obter e acrescentar informação de e para qualquer computador conectado através da Internet: HTTP, MTML e URI (mais tarde chamado URL)” (CASTELLS, 2003, p. 18). Em 1993, segundo Fragoso (2007), o CERN decidiu abrir mão do direito de propriedade dos códigos básicos do projeto, tornando a WWW um domínio público. Em meados da década de 1990, a Internet estava privatizada e dotada de uma arquitetura técnica aberta, que permitia a interconexão de todas as redes de computadores em qualquer lugar do mundo; a WWW podia então funcionar com software adequado, e vários navegadores de uso fácil estavam à disposição do público (CASTELLS, 2003, p. 19). No final de 1995, o primeiro ano de uso disseminado da World Wide Web, havia cerca de 16 milhões de usuários de redes de comunicação por computador no mundo (CASTELLS, 2003, p. 8). Em relação à Internet no Brasil, segundo Limeira (2003), até 1988 as universidade brasileiras se conectavam às redes internacionais de pesquisa por meio da rede BITNET (uma contração da expressão Because it’s Time Network) que era uma rede de correio eletrônico. Ainda segundo o autor, em 1989, o Ministério da Ciência e Tecnologia formou um grupo com representantes do CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico), da Finep (Financiadora de Estudos e Projetos), da FAPESP (Fundação de Amparo à Pesquisa do Estado de São Paulo), da Faperj (Fundação Carlos Chagas Filho de Amparo à Pesquisa do Estado do Rio de Janeiro) e da Fapergs (Fundação de Amparo à Pesquisa do Estado do Rio Grande do Sul) para discutir a interligasse as principais universidades, implantação de uma rede que órgãos governamentais e não- governamentais e instituições de pesquisa. O resultado foi o surgimento da RNP (Rede Nacional de Pesquisa) em setembro de 1989. O modelo de prestação de serviços de redes operado pela RNP foi concebido para dar suporte à introdução da tecnologia de rede Internet no país, bem como sua difusão e capilarização por meio do apoio à implantação de redes estaduais (LIMEIRA, 2003, p. 29). Em 1993, após montado o backbone (infraestrutura física) da rede, a RNP já atendia 11 estados brasileiros, com conexões em velocidade de 9,6 a 64 Kbps. Até
  • 13. 13 1996, implantou-se a Fase II do projeto, com uma infraestrutura mais veloz que a anterior. Nessa época, o RNP deixou de ser um backbone restrito ao meio acadêmico, estendendo seus serviços de acesso a todos os setores da sociedade. Assim, “ofereceu um importante apoio para a consolidação da Internet comercial no Brasil, que teve início em maio de 1995” (LIMEIRA, 2003, p. 30). Dessa forma, tanto no Brasil, quanto em todo o mundo, a Web se desenvolveu rapidamente e o número de páginas indexáveis (acessíveis aos mecanismos de busca) foi aumentando substancialmente a cada ano. Para se ter uma idéia, em 1999, haviam em torno de 800 milhões de páginas indexáveis na web (LAWRENCE; GILES, 1999, apud FRAGOSO, 2007, p.2). No ano seguinte, mais de dois bilhões (MURRAY, 2000, apud FRAGOSO, 2007, p.2). E em janeiro de 2005, já eram pelo menos 11,5 bilhões de páginas (GULLI; SIGNORINI, 2005, apud FRAGOSO, 2007, p.2). Com isso, tornou-se necessária uma forma de organização dessas páginas para facilitar a pesquisa pelos usuários e, a partir dessa necessidade, surgiram os mecanismos de busca. 1.2 MECANISMOS DE BUSCA O primeiro indexador de páginas surgiu em 1990, antes mesmo da World Wide Web, e ele se chamava Archie. Ele “reunia informações de arquivos disponíveis em servidores FTP (File Transfer Protocol)1 anônimos e os mantinha atualizados checando os dados em intervalos de até 30 dias” (FRAGOSO, 2007, p. 3). Em 1992, foi lançado o Veronica, que era um banco de dados que reunia os menus dos servidores Gopher, permitindo a realização de buscas por tópico (palavra-chave) ao invés de por servidor (como era inerente ao sistema), segundo a autora. O Gopher é um protocolo de redes de computadores que foi desenhado para distribuir, procurar e acessar documentos na Internet; criado por Paul Lindner e Mark McCahill na Universidade de Minesota. As informações acessadas através do Gopher ficam localizadas em servidores apropriados nos quais roda um programa 1 Servidor que fornece, através de uma rede de computadores, um serviço de acesso para usuários a um disco rígido ou servidor de arquivos através do protocolo de transferência de arquivos.
  • 14. 14 que as organiza por assunto e as disponibiliza organizadas em uma estrutura hierárquica na forma de menus (diretórios). No ano seguinte, foi criado o Jughead que introduziu a possibilidade de realizar buscas booleanas. “Em ciência da computação, booleano é um tipo de dado primitivo que possui dois valores, que podem ser considerados como 0 ou 1, verdadeiro ou falso”2. Desde o ano anterior, já estava também em operação o WAIS (Wide Area Information Server), que reunia características do Gopher e dos buscadores que nele operavam e havia sido desenvolvido por iniciativa conjunta de quatro empresas. “Com o WAIS, era possível realizar buscas em bases de dados remotas, cujos resultados eram organizados em ordem decrescente de frequência das palavras-chave” (FRAGOSO, 2007, p. 3). Em 1993, alguns meses após o lançamento do primeiro browser para Windows, o X Windows Mosaic, já surgiu o primeiro webrobot3: o World Wide Web Wanderer. O intuito inicial era mapear toda a Web, mas isto já era matematicamente impossível. Ainda no mesmo ano, surgiram mais três webrobots: JumpStation, WWW-Worm e RBSE. O Worm indexava os títulos e endereços das páginas, enquanto o JumpStation inovou ao arquivar também os cabeçalhos. Ambos apresentavam os resultados na ordem em que os encontravam. O RBSE foi o primeiro a implementar um sistema de ranqueamento baseado na relevância relativa à expressão utilizada para a busca (MAULDIN, 1997; WALL, 2006 apud FRAGOSO, 2007, p. 4). O primeiro indexador projetado especificamente para a Web surgiu também em 1993. Inspirado pelo Archie, o Aliweb contava com um banco de dados cujas informações eram fornecidas diretamente por webmasters4. “Isso permitia que o sistema arquivasse descrições das páginas, que eram alimentadas pelos próprios criadores, mas por outro lado tornava a qualidade e atualidade do banco de dados dependentes da boa vontade de terceiros” (FRAGOSO, 2007, p. 4-5). Já o primeiro diretório pesquisável foi o Galaxy. Ainda segundo Fragoso (2007), o Galaxy listava apenas URLs (Uniform Resource Locator) que tinham sido fornecidas diretamente, organizando os endereços em categorias e sub-categorias e permitindo que os usuários restringissem a busca a sub-áreas de sua base de dados, o que acelerava e tornava mais preciso o processo. 2 Disponível em http://pt.wikipedia.org/wiki/Booleano. Programa que percorre a web passando de um documento para outro através dos hiperlinks. 4 Profissionais responsáveis pelo webdesign e desenvolvimento de uma página na web. 3
  • 15. 15 Já em 1994, surgiu o WebCrawler, “um bot capaz de associar o registro do conteúdo completo das páginas à funcionalidade do rastreamento automático”, por meio da indexação vetorial5. Depois do WebCrawler, outros sistemas de busca foram aperfeiçoando suas funcionalidades e abrangência. O Lycos surgiu em 1994 e ganhou destaque, pois organizava os resultados das buscas conforme a relevância, permitia consultas por prefixo e dava bônus por proximidade entre palavras, de acordo com Fragoso (2007). O peso do banco de dados era aliviado por meio da estratégia de não arquivar o conteúdo completo das páginas, mas apenas um resumo gerado automaticamente a partir das 100 palavras-chave mais frequentes em cada página, combinadas com as palavras do título, do cabeçalho e as 20 primeiras linhas ou os primeiros 10% do documento. Com o passar dos anos e o aumento constante do tráfego, os investidores começaram a se dar conta das possibilidades da publicidade online, interessando-se em incluir banners e pequenos anúncios nas páginas de entrada dos sites. Então, buscando intensificar o fluxo de público para atrair mais anunciantes, muitos sistemas de busca “assumiram o formato de portal, passando a oferecer uma variedade de serviços” (FRAGOSO, 2007, p. 6). Foi o caso do Yahoo!, que começou em 1994, como uma lista de sites favoritos elaborada por dois primeiranistas de doutorado da Universidade de Stanford. Nessa época, fazer listas de favoritos na Web era algo bastante comum, o diferencial do Yahoo! É que ele disponibilizava breves descrições das páginas. Com o aumento do número de indicações, a lista tornou-se pouco amigável e os autores criaram uma estrutura de árvore (categorias e sub-categorias), conferindo ao Yahoo! o perfil de um diretório. Para responder ao crescimento da popularidade da lista, adicionaram também uma ferramenta de busca e passaram a aceitar inscrições de websites que desejassem figurar em seu banco de dados. Com menos de um ano de funcionamento, a página do Yahoo! celebrou seu milionésimo acesso, com visitantes vindos de quase 100 mil endereços distintos (YAHOO! MEDIA RELATIONS, 2005 apud FRAGOSO, 2007, p. 6). Em 1995 surgiu o AltaVista, que era mais rápido que as outras ferramentas disponíveis na época, prometia aos webmasters atualizar as informações recebidas em, no máximo, 24 horas e permitia buscas “a partir de perguntas, buscas em newsgroups, buscas específicas por palavras associadas a imagens, títulos e outros 5 Na indexação vetorial, documentos em linguagem natural são representados por meio de vetores, ou seja, as palavras-chave (termos de busca) recebem características vetoriais. O sistema avalia a relevância dos documentos de acordo com sua relação espacial com as palavras-chave buscadas.
  • 16. 16 campos do código HTML e buscas por inlinks” (FRAGOSO, 2007, p. 6). Possuía ainda um campo de dicas logo abaixo da área de busca, o que ajudou a aumentar a fidelidade à ferramenta. Rapidamente, os mecanismos de busca se tornaram os principais veículos para a publicidade online. Conforme Fragoso (2007), as alternativas eram as seguintes: inclusão paga, em que o webmaster pagava para garantir que seu site fosse incluído no banco de dados da ferramenta de busca ou diretório; a classificação paga, em que o buscador garantia que o site figuraria entre os primeiros resultados das buscas por uma ou várias palavras; e seleção paga (payper-click), em que o anunciante só paga quando o usuário clica no link para seu site. Já que foram surgindo dezenas de mecanismos de busca e cada um cobria porções diferentes da web; em 1995, surgiram as ferramentas de meta-busca, que permitiram buscar em vários sistemas de busca ao mesmo tempo. O ponto negativo era que elas desviavam o público das demais páginas, afastando delas os anunciantes. Em paralelo à manipulação dos resultados das buscas pela inserção de resultados pagos, surgiram também os spams: resultados na busca que nada tinham a ver com o que o usuário estava buscando. Para evitar isso, “os sistemas de busca desenvolviam estratégias de indexação e classificação cada vez mais sofisticadas” (FRAGOSO, 2007, p. 8). Àquela altura, a disputa pelo mercado de buscas parecia girar em torno do tamanho dos bancos de dados. Muitas das pequenas ferramentas foram compradas por “buscadores maiores, interessados tanto em aumentar ainda mais seus bancos de dados quanto, muitas vezes, em particularidades dos rastreadores e sistemas de classificação” (FRAGOSO, 2007, p. 8). Enquanto isso, no mundo acadêmico, estava em gestão um sistema de classificação que recolocava no centro da cena uma das características mais interessantes do Lycos: a “heurística de popularidade” (MAULDIN, 1997 apud FRAGOSO, 2007, p. 8). A estratégia foi aperfeiçoada no BackRub, projeto de doutorado de Larry Page e Sergey Brin na Universidade de Stanford, que pretendia melhorar a forma como os mecanismos de busca classificavam os resultados e reduzir ao máximo o tempo gasto pelos internautas para encontrar o que buscavam. Ele classificava os resultados de acordo com o número de back links que cada site recebia, assim a metodologia era baseada nas respostas que a própria Internet fornecia. O projeto cresceu rapidamente e foi renomeado Google.
  • 17. 17 A princípio, Page e Brin não pareciam estar interessados em criar uma empresa em torno de seu novo buscador, tanto é que tentaram vendê-lo ainda em 1998, sem sucesso. Um ano mais tarde, o Google continuava em versão beta, mas já havia se tornado amplamente conhecido por utilizar um algoritmo de classificação inovador e não incluir apenas resultados pagos entre os resultados orgânicos. Outros pontos fortes do Google eram a velocidade das buscas e a simplicidade da interface (começando pela ausência de banners e outro material publicitário, o que levava a página inicial a carregar muito mais rápido que a dos outros sites de busca). Ao final de 2000, o Google começou a exibir alguns resultados pagos, mas, ao contrário da maioria das outras ferramentas, não os mesclou com os resultados orgânicos. Àquela altura, o Google já havia se estabelecido como o melhor sistema de buscas na mente do público (FRAGOSO, 2007, p. 9). Atualmente, o Google é o site de buscas líder do mercado, com cerca de 50 bilhões de buscas por mês no Google, em todo o mundo. “O Google tem 71% do mercado de buscas online nos Estados Unidos e 60% do mercado mundial, sendo que 97% de seu faturamento é originário dos anúncios através de links patrocinados” (FELIPINI, 2010, p. 7). Percebe-se assim, que os sites de busca começaram como catálogos de páginas no formato digital e evoluíram, passando a utilizar novas formas de classificação de páginas e organização de resultados. Para compreender melhor esta evolução, abordar-se-á a seguir o funcionamento dos mecanismos de busca. 1.2.1 Funcionamento dos mecanismos de busca Os primeiros mecanismos de busca eram catálogos de páginas na web, cujas informações eram incluídas por uma equipe de profissionais. Kendzerski (2005, p. 98) explana que, além da demora para que um site constasse no catálogo, como a organização das respostas era feita com base na ordem alfabética, muitas vezes os sites desejados ficavam longe do topo dos resultados. Depois vieram os spiders, softwares que vasculham a internet, colhendo dados das páginas e as anexando ao banco de dados dos mecanismos de busca. “Esses dados são fornecidos através da otimização do site (inserção de metatags e outras informações que são colocadas especialmente nas páginas por seus
  • 18. 18 desenvolvedores)” (KENDZERSKI, 2005, p. 99). Essa varredura é feita inicialmente na primeira página do site e, conforme o robô encontra links para outras páginas, ele vai incluindo essas páginas na varredura. Uma vez que o robô varreu todo o site, ele copia os textos que encontrou para o banco de dados da ferramenta de busca. Com seus textos em mãos, os computadores da ferramenta de busca associam as palavras encontradas no texto a seu endereço (URL), e com as palavras encontradas no texto criam uma gigantesca biblioteca de palavras-chave (TORRES, 2009, p. 93). Na sequência, passou-se a utilizar taxonomia, para fornecer resultados restritos dentro da área de interesse do internauta. E surgiram também os metabuscadores: “sistemas que buscam as informações em outros mecanismos de busca, compilando os resultados obtidos” (KENDZERSKI, 2005, p. 101). Em 1998, o americano Bill Gross, fundador do GoTo.com, começou a oferecer resultados (de busca) pagos e leilão de palavras. “A empresa foi rebatizada de Overture em 2001 e depois adquirida pelo Yahoo! em 2004. Foi com base nesse modelo que o Google criou o Google Adwords e o conceito de links patrocinados” (TORRES, 2009, p. 302). Com isso, “a tela de resultados dos principais sites de busca passou a apresentar dois tipos de informação: o resultado orgânico ou gratuito com páginas classificadas por relevância e os anúncios pagos, chamados de Links Patrocinados” (FELIPINI, 2010, p. 7). Os links patrocinados funcionam da seguinte forma: quanto maior o lance oferecido, mais alta será a classificação do site, sendo que as palavras com maior procura exigirão também lances maiores. Atualmente, os principais sites de busca utilizam algoritmos que consideram vários critérios, cada um com um peso específico, para definir a importância de uma página e seu posicionamento nos resultados de busca. “Cada site de busca possui seu próprio algoritmo, principalmente no que se refere ao peso de cada variável, por esse motivo uma mesma página pode ter posicionamentos distintos em cada um deles” (FELIPINI, 2010, p. 11). Esses algoritmos são alterados esporadicamente e alguns mecanismos de busca já oferecem cursos (principalmente para empresas) em que explicitam cada um de seus critérios. Um algoritmo pode ser definido como uma sequência finita de passos (instruções) para resolver um determinado problema. Sempre que é desenvolvido um algoritmo, é estabelecido um padrão de comportamento que deverá ser seguido uma norma de execução de ações) para alcançar o resultado de um problema.
  • 19. 19 Atualmente, os algoritmos tem sido utilizados também para personalizar o conteúdo disponível de acordo com as preferências de cada usuário. No entanto, essa utilização tem sido criticada por alguns estudiosos, como Eli Pariser no livro “O filtro invisível”. Na obra, o autor afirma que esse excesso de personalização tende a deixar os usuários “unidirecionais” e limitar seus pontos de vista por meio de um “filtro-bolha”, em que os algoritmos assumem o papel de curadores de informação, valorizando os tipos de informação em que o usuário mais clica e deixando de lado outros conteúdos que poderiam também interessar ao usuário, mesmo não sendo de sua preferência. E é ao estudo desses algoritmos e de sua utilização que se dedica a indústria de SEO (Search Engine Optimizaton): a otimização de sites e de seu conteúdo em busca de uma melhor colocação entre os resultados de busca (de forma orgânica). 1.3 O QUE É SEO? A preferência dos usuários pelos websites que constam entre os primeiros resultados de suas buscas estimulou o desenvolvimento da indústria de SEO (Search Engine Optimization). A SEO ou otimização para mecanismos de busca consiste em “um conjunto de técnicas, métodos e/ou estudos que visam melhorar o posicionamento das páginas no mecanismo de busca”6. “A SEO nasceu da simples observação de que estar listado entre os mais altos resultados no Google se traduz diretamente em dinheiro” (BATTELLE, 2006, p. 136). Em suma, o objetivo principal da SEO é angariar novos visitantes já que, com mais visitas, aumentam as chances de conversão. Logo, com um bom trabalho de SEO, é possível aumentar as vendas, o número de visualizações da página ou de assinantes de feeds, etc. Segundo Fábio Ricotta, criador do site MestreSeo (atual Agência Mestre), o termo foi usado pela primeira vez pela empresa MMG (Multimedia Marketing Group) de John Audette, cujo objetivo era aplicar métodos que fizessem com que um website conseguisse um posicionamento nos resultados de busca melhor que o dos concorrentes. Inicialmente, a indústria de SEO não tinha plena certeza de quais 6 Disponível em http://www.agenciamestre.com/seo/o-que-e-seo.
  • 20. 20 seriam as técnicas legais e quais seriam ilegais, até por que mecanismos de busca como o Google sempre mantiveram seus algoritmos sob sigilo. Com isso, à época, muitas empresas que pagavam às indústrias de SEO para otimizar sua colocação entre os resultados de busca acabavam com os sites banidos do índice dos mecanismos de busca, por causa das práticas ilegais aplicadas. Já que as ferramentas de busca consistem em um elemento-chave no processo de localização de sites, é importante que o desenvolvedor de interface ou webdesigner garanta que o site tenha uma estrutura que facilite a varredura pelo mecanismo e que os conteúdos sejam escritos buscando melhorar o posicionamento do site nos resultados de busca. Outro ponto é a otimização do conteúdo, com o objetivo de levar o conteúdo certo para a busca correspondente, no intuito de seduzir e converter novos leitores. “Por mais que você anuncie na mídia online publicando banners em grandes portais, a grande maioria dos acessos começará mesmo pela busca de palavras-chave” (TORRES, 2009, p. 72). Segundo o site MestreSEO, as técnicas e métodos de SEO podem ser divididas em SEO on-page e SEO off-page, sobre as quais iremos abordar nos subitens a seguir. 1.3.1 SEO on-page SEO on-page é a otimização para mecanismos de busca realizada internamente no site. Os principais fatores de SEO on-page são: meta tags, heading tags, atributo alt, domínio, URLs amigáveis e conteúdo. As meta tags são linhas de código HTML que descrevem o conteúdo do site para os mecanismos de busca. As principais meta tags são: meta keywords, title tag e meta description. Cada uma delas possui regras específicas para serem elaboradas adequadamente, sobre as quais irá se tratar na sequência. Uma regra geral é que cada uma possui uma quantidade ideal de caracteres, sendo que a Agência Mestre disponibiliza em seu site, inclusive, um contador de caracteres7, ferramenta que muito pode auxiliar na elaboração das meta tags. 7 Disponível em: http://www.agenciamestre.com/ferramentas-seo/tamanho-do-texto.
  • 21. 21 Para uma pessoa, a meta tag precisa ser chamativa, interessante, informativa, curiosa e com um toque de CALL-FOR-ACTION. Para um buscador, a meta tag precisa de uma dose de palavras-chave para que o algoritmo da ferramenta de busca classifique bem a página. O essencial no desenvolvimento de meta tags é achar o meio termo entre esses dois lados (MARCEL, 2009). Uma das primeiras ordens ao se iniciar a otimização de um site para as buscas é escolher as principais palavras-chave, pensando no que os usuários poderão buscar. A partir disso, pode-se escolher as palavras a serem evidenciadas em títulos, texto, descrição de imagens, domínio, etc. Conforme orienta Felipini (2010), pode-se incluir também o nome da empresa ou de produtos, palavras sinônimas ou utilizadas regionalmente. Se a palavra for homônima, ou seja, tiver sonoridade ou grafia igual à de outra palavra, o ideal é usá-la em conjunto com outra palavra mais explicativa. No caso da palavra “pet” por exemplo, ela pode significar tanto animais de estimação quanto garrafas de plástico reciclável. Quanta à frequência de uso das palavras-chave no texto é relevante destacar que os mecanismos de busca fazem uma contagem do número de vezes em que a palavra-chave apareceu e também do total de palavras em cada página. O primeiro número dividido pelo segundo fornecerá a frequência relativa daquela palavra. “Por exemplo, se a palavra apareceu 8 vezes e o total de palavras da página é 100, a frequência relativa é 8/100, o que equivale a 8%” (FELIPINI, 2010, p. 35). Cada mecanismo de busca possui um número ideal de frequência de cada palavra no texto. Felipini destaca que “se você incluir a palavra-chave num percetual entre 3% e 6% estará relativamente seguro. Muito acima disso, sua página corre o risco de ser penalizada” (FELIPINI, 2010, p. 35). O autor pontua ainda que o excesso de repetição das palavras-chave pode tornar a leitura do texto enfadonha. Também é possível verificar qual é o potencial de busca das palavras-chave escolhidas, através de uma ferramenta do Google, a Keyword Tool 8. Apesteguy (2013) explana que, após escolher as palavras-chave, pode-se verificar o número de resultados retornados pelo mecanismo de pesquisa, para se ter uma noção do grau de dificuldade que se terá para que a página fique bem posicionada nos resultados de busca. Segundo Alvarez (2012), nas redações online, outra ferramenta utilizada para avaliar a potencialidade de novas notícias é o Google Trends, disponível em http://www.google.com/trends/. Um pouco mais aprimorado do que o Google Trends, o Google Insights for Search oferece um serviço mais detalhado para os jornalistas 8 Disponível em https://adwords.google.com.br/keywordtool
  • 22. 22 que querem encontrar palavras mais adequadas para regiões específicas ou até mesmo fazer comparações mais profundas de palavras para notícias nacionais. Combinar as ferramentas é também uma ótima opção. É possível usar a Keyword Tool, selecionar as melhores e levar até o Google Trens ou o Google Insights for Search e lá decidir qual é a que irá ter o melhor resultado (ALVAREZ, 2012, p. 16). As title tags ou títulos das páginas são as palavras que aparecem na barra de navegação do navegador quando se entra na página. Nos resultados de busca, os títulos das páginas aparecem como texto clicável que destina até a página correspondente do site. O ideal é que cada página de um site tenha seu próprio título e que este seja criado de forma chamativa e explicativa: informando ao usuário o que exatamente ele irá encontrar se clicar no link apresentado entre os resultados de busca. Conforme artigo de Vinicius Paes para o site MundoSEO9, este é o primeiro item examinado pelo mecanismo de busca, a fim de extrair o principal assunto sobre o qual o site e cada uma de suas páginas tratam. “Este título deve aparecer logo no início da página, antes de qualquer texto ou imagem. Além disso, deve ser grafado em destaque, com negrito e letras maiores do que as do restante do texto” (FELIPINI, 2010, p. 33). Em artigo para o site da Agência Mestre, Marcel (2007) aponta que é importante também não ultrapassar os 70 caracteres nas title tags, já que esta é a média que os mecanismos de busca exibem. Outras dicas são repetir o título em alguma parte do texto e manter um padrão nos títulos, para facilitar a identificação da página pelo usuário. A meta description, por sua vez, tem como finalidade: “descrever o conteúdo da página com precisão e sucintamente; servir de uma pequena propaganda para atrair tráfego orgânico e disponibilizar as palavras-chave para os buscadores” (MARCEL, 2007). Ela não aparece no browser do usuário quando ele carrega a página do site. Suas informações são voltadas principalmente para os mecanismos de busca. O ideal é que a meta description descreva o conteúdo da página em até 160 caracteres, de forma apelativa e informativa, preferencialmente citando as principais palavras-chaves. O site da Agência Mestre pontua, no entanto, que não é extremamente necessário que sempre se use as meta description tags. Quando se objetiva poucas palavras-chave, é interessante ter a meta description e que as palavras-chave estejam nela. Por outro lado, quando se 9 Disponível em: http://www.mundoseo.com.br/meta-tag/title-tags-conceitos-basicos.
  • 23. 23 tem muito a mostrar/oferecer, ou seja, quando uma página tem muito conteúdo que trata de temas mais específicos em torno das palavras-chave principais, é bom deixar que o próprio motor de busca defina a relevância da página em relação aos termos usados na busca. Quer dizer, se eu tenho um vasto conteúdo de SEO sobre todas as categorias de SEO, às vezes é melhor deixar que o buscador decida qual a página do meu site melhor se adequa como reposta à busca do usuário (MARCEL, 2007). Já as meta keywords têm como finalidade indicar ao mecanismo de busca quais palavras-chave estão relacionadas à página. Segundo Felipini (2010, p. 40), “alguns editores costumam colocar aqui uma infinidade de palavras, muitas vezes, nem sequer relacionadas ao assunto, com o objetivo de tentar aparecer em um grande número de buscas”. Isto acaba diminuindo a relevância de cada palavrachave utilizada, além de dificultar a geração de tráfego para o que realmente interessa na página. Ainda de acordo com Felipini, devido a esse uso inadequado e à própria evolução dos mecanismos de busca (que já varrem automaticamente as páginas em busca das principais palavras), as meta keywords vêm perdendo a importância em detrimento de outros critérios mais sofisticados de SEO. As heading tags marcam no código HTML os pontos em destaque no conteúdo do site, para facilitar a identificação da ordem de relevância dos conteúdos para os mecanismos de busca. Estas tags vão de <h1> até <h6>. “Na tag <h1> deve constar um resumo do que o usuário vai encontrar no texto; a tag <h2> deve abordar um conteúdo sub-sequente do conteúdo da página; e as demais tags obedecem a mesma filosofia” (RIOLINO, 2008). Como os mecanismos de busca registram apenas links e textos, para que reconheçam o conteúdo de uma imagem, é preciso usar o atributo alt. Segundo Miranda (2009), este atributo é de vital importância para o ranqueamento do site no Google Imagens (serviço de busca de imagens do Google) e funciona também como texto âncora quando a imagem é usada como link. “A tag alt também é utilizada pelos bots do Google que juntamente com a tag title interpreta melhor o significado da imagem e sua relação com a página em questão” (MIRANDA, 2009). O ideal é escrever uma descrição curta e direta, sem preposições, com no máximo cinco palavras e apenas hífens entre elas. O atributo title complementa o alt, permitindo que usemos quantos caracteres forem necessários para descrever a imagem, mas o ideal é não escrever longos textos. O bom uso desses atributos já faz com que as imagens consigam ter um
  • 24. 24 melhor posicionamento em mecanismo de busca de imagem, como o Google Images por exemplo. Muitos acessos a veículos online chegam através de imagens bem rankeadas. O jornalista deve ter cuidado com a sua imagem desde a hora em que a salva em seu computador para depois fazer upload no publicador. O nome da imagem pode ser crucial na hora de um buscador indexar a sua imagem (ALVAREZ, 2011, p. 21). Quanto ao domínio principal do site, ele deve descrever, sempre que possível, o conteúdo do site de maneira sucinta. As páginas secundárias do site também devem ter URLs amigáveis, ou seja, endereços que descrevam de forma objetiva e exata o conteúdo da página. Essa é uma técnica que contribui muito para um bom posicionamento do site para as palavras-chave utilizadas. “Isto ocorre porque os sistemas de busca dão um peso importante à existência da palavra-chave no endereço do site” (FELIPINI, 2010, p. 32). Domínios com correspondência exata com palavras-chave e pesquisas geralmente não são tão fáceis de encontrar, pois a probabilidade de já terem um dono é muito grande. Nesse caso, procure verificar se ele não está expirado ou se não está à venda. URL - Se uma das principais palavras-chaves consta já na URL do site, esta já é uma grande vantagem (LIMA, 2009). O conteúdo de um site influencia na percepção que os visitantes têm do mesmo e também estimula que outros sites insiram links de saída direcionando para este em questão. “Às vezes, um bom artigo com conteúdo relacionado ao seu site pode parar no topo dos sites de busca, sem nenhuma ação direta de sua parte” (FELIPINI, 2010, p. 62). Por outro lado, se um site está bem colocado nos resultados de busca, atraindo vários usuários, mas estes se sentirem frustrados ao acessar por encontrar um conteúdo pouco relevante, “a insatisfação dos usuários resultaria em uma baixa performance do site, além de se refletir negativamente na avaliação do PageRank” (FELIPINI, 2010, p. 63). Marcel (2009) dá algumas dicas rápidas para garantir qualidade ao conteúdo: deve-se valorizar os dois primeiros parágrafos, indo direto ao ponto; escrever parágrafos curtos envoltos por espaço vazio (espaço entre os parágrafos); usar imagens de qualidade e que complementem o texto; usar listas para destacar pontos importantes; usar subtítulos quando o texto for longo para tornar a leitura mais dinâmica; usar negrito e itálico; citar referências e trazer outros links. Uma dica importante e já notavelmente utilizada por muitos blogs é colocar as
  • 25. 25 principais palavras-chave no texto em negrito, para demonstrar ao buscador que estas têm maior importância em relação ao restante do texto. O ideal, segundo Felipini, é incluir conteúdo exclusivo, “não encontrado em qualquer canto da Internet; e que, se for comercial, não seja apelativo ou subestime a inteligência do potencial comprador” (FELIPINI, 2010, p. 64). Um blog, por exemplo, pode ser uma forma interessante de ampliar indiretamente o conteúdo do site, por meio de uma comunicação mais informal e indireta. “Os links direcionados para o site principal, além de encaminhar clientes potenciais, agregarão pontos” (FELIPINI, 2010, p. 65). Pode-se também convidar especialistas ou pessoas com conhecimento relacionado ao tema do site para escrever artigos, sugere o autor. 1.3.2 SEO off-page SEO off-page é a otimização para mecanismo de busca que ocorre por meio de outros sites, que acabam gerando acesso e elevando a qualidade da página perante a avaliação dos mecanismos de busca. Os principais fatores off-page em SEO são número e qualidade de links externos, texto âncora dos links externos e idade do domínio. Felipini (2010) explica que quanto mais links externos de qualidade uma página tiver, melhor esta será classificada nos resultados de busca. O Google utiliza o sistema de classificação PageRank. Este é também “o nome dado ao valor numérico alcançado por cada página e que, na comparação com outras, vai definir a ordem de classificação de cada uma no resultado da busca” (FELIPINI, 2010, p. 49). A pontuação depende da quantidade de links e da quantidade de pontos que a página emitente pode distribuir por meio de seus links. O Google não divulga a fórmula matemática que utiliza, mas se sabe que a fórmula considera majoritariamente os seguintes fatores: “links de entrada (links de outras páginas apontado para sua página), links de saída (links em sua página apontando para páginas externas) e links internos (links entre sua página e outras sob o mesmo domínio)” (FELIPINI, 2010, p. 51). Os links de entrada devem vir de sites que tem alguma relação com o conteúdo do site, para gerar tráfego mais interessante, que pode converter em
  • 26. 26 vendas ou fidelizar público, no caso de um site de notícias por exemplo. Quanto aos links de saída, é importante que a página de origem não tenha uma enorme quantidade de links de saída, pois assim “o valor do link direcionado para cada página tende a ser menor” (FELIPINI, 2010, p. 52). Link Building “é o conjunto de técnicas de SEO e otimização de sites responsável pela arquitetura interna de links de um site e pela conquista de links externos”. (MARCEL, 2008). As redes sociais, por exemplo, podem ser usadas na busca de linkbuilding. Quando as pessoas compartilham a sua notícia e mandam o link para a sua URL, ela ganha relevância e isso é positivo para SEO. O botão de +1 do Google também é um grande aliado. Verifique se no seu site de notícias online ou portal, os botões de content share e de +1 estão ativos. Isso pode fazer diferença na hora do posicionamento de sua notícia (ALVAREZ, 2011, p. 19). Em relação aos links internos, sabe-se que as páginas dentro de um site que recebem uma maior quantidade de links, como geralmente é o caso da home page, ficam com uma pontuação maior (no PageRank) do que aquelas que recebem poucos. Um aspecto interessante da otimização de links internos é que ele acarreta um duplo benefício: além de melhorar o posicionamento das páginas mais importantes, indica ao usuário do site o melhor caminho a seguir, melhorando a usabilidade e a taxa de conversão (FELIPINI, 2010, p. 55). O link pode ser dividido em duas partes: a URL linkada e o texto descritivo. “O texto descritivo é chamado também de texto âncora e esta descrição é quem faz um site posicionar-se bem para uma determinada palavra-chave” (RICOTTA, 2008). Quanto à idade do domínio, quanto mais antigo, melhor deve ser sua colocação nos resultados de busca, desde que ele continue sendo alimentado com conteúdo e atualizado. Isto por que hoje em dia a criação de domínios cresce vertiginosamente “e estamos cercados de domínios com conteúdo duplicado, spam, páginas com vírus e voltadas a propaganda extensiva” (RICOTTA, 2007). Assim, a idade do domínio acaba por contribuir com sua credibilidade diante dos mecanismos de busca.
  • 27. 27 2 JORNALISMO ONLINE E SUAS CONSEQUÊNCIAS NO FAZER JORNALÍSTICO Pesquisar o jornalismo na internet não é uma questão de modismo, é uma necessidade. Afinal, a internet foi o último e o mais sensacional meio de comunicação do Século XX e segue sua carreira na era da Revolução Digital (QUADROS, 2002, p. 1). Depois de abordarmos o surgimento da Internet, os mecanismos de busca e as práticas de Search Engine Optimization, abordar-se-á a atuação dos jornalistas na web, para na sequência avaliar como estes profissionais estão utilizando o SEO, na prática, para gerar tráfego aos sites de notícia. Abordar-se-á inicialmente as principais características do Jornalismo Online. Foram reunidas informações históricas, tratando dos primórdios do Jornalismo Online no mundo e, especificamente, no Brasil. Na sequência, entram em foco algumas das mudanças no fazer jornalístico após o surgimento da Internet e a presença dos jornais impressos na web; fatos que modificaram a forma de consumir notícias, algumas rotinas produtivas e também o perfil profissional das redações online. Esta reflexão será a tônica para introduzir, no terceiro capítulo, o relato de três profissionais da área sobre a importância que os sites de notícia estão dando às técnicas de SEO para alavancar seus acessos e buscar se tornar referência online. 2.1 CARACTERÍSTICAS DO JORNALISMO ONLINE Para Luciano Miranda (2004, p. 11), o Jornalismo Online “é um meio de comunicação autônomo – e ao mesmo tempo integrado – que vem a ser somado ao tripé tradicional da imprensa, rádio e televisão”. Outras nomenclaturas também são utilizadas para designar este tipo de prática jornalística: Ciberjornalismo, Jornalismo eletrônico, Jornalismo online, Jornalismo digital, Jornalismo hipertextual. Entretanto, no momento, não será estabelecida a discussão sobre as especificidades e adequações destas nomenclaturas. Segundo estudos coordenados pelos professores Marcos Palacios e Beatriz Ribas por meio da Oficina de Jornalismo Digital da Faculdade de Comunicação da
  • 28. 28 UFBA (Universidade Federal da Bahia), entre as principais características do Jornalismo Online estão: - Hipertextualidade: possibilidade de interconectar textos, sites, arquivos, por meio de links, fazendo com que o internauta possa acessar informações contextualizadas e mais aprofundadas, já que os links podem ter conteúdo multimídia ou dados de material mais antigo; - Multimidialidade ou convergência: convergência das mídias convencionais (texto, imagem e som) na narração do fato jornalístico. “A convergência torna-se possível em função do processo de digitalização da informação e sua posterior circulação e/ou disponibilização em múltiplas plataformas e suportes, numa situação de agregação e complementaridade” (PALACIOS et al, 2003, p. 3); - Interatividade: capacidade de fazer com que o leitor/usuário sinta-se mais diretamente parte do processo jornalístico. “A interatividade busca a inclusão do usuário/leitor como participante do processo jornalístico através de troca de e-mails (leitor/jornalista), da participação com comentários, enquetes e opinião, discussão em fórum e chats, e da navegação livre e seletiva de conteúdos” (TOLDO E GONÇALVES, 2008); - Personalização/customização de conteúdo: consiste na opção oferecida ao usuário para configurar os produtos jornalísticos de acordo com os seus interesses individuais. Há sites noticiosos que permitem a pré-seleção dos assuntos, bem como a sua hierarquização e escolha de formato de apresentação visual. “Assim, quando o site é acessado, a página de abertura é carregada na máquina do usuário atendendo a padrões previamente estabelecidos, de sua preferência” (PALACIOS et al, 2003, p. 4); - Memória: há na Web maior possibilidade de acumulação de informações do que em outras mídias. O volume de informação produzida e disponível ao usuário e ao produtor da notícia cresce exponencialmente, o que produz efeitos na produção e na recepção da informação jornalística. Na Web, a memória torna-se coletiva, através do processo de hiperligação entre os diversos nós que a compõem. “A memória no Jornalismo na Web pode ser recuperada tanto pelo produtor da informação, quanto pelo usuário, através de arquivos online providos com motores de busca (search engines) que permitem múltiplos cruzamentos de palavras-chaves e datas (indexação)” (PALACIOS et al, 2003, p. 8);
  • 29. 29 - Atualização contínua ou instantaneidade: agilidade na produção e disponibilização de conteúdo na Internet. O material pode ser atualizado constantemente, diferentemente, por exemplo, da mídia impressa. Essas características foram surgindo ao longo do tempo, diferenciando cada vez mais o Jornalismo Online dos demais tipos de Jornalismo Impresso. E para entender essa transição e a entrada dos grandes grupos de comunicação na Web, será traçado a seguir um breve histórico do Jornalismo Online. 2.2 BREVE HISTÓRICO DO JORNALISMO ONLINE Antes da World Wide Web, a rede já era utilizada para a divulgação de informações jornalísticas, porém os serviços oferecidos eram direcionados para públicos específicos e funcionavam por meio da distribuição de e-mails, boletins disponibilizados através do sistema Gopher (que possibilitava o acesso a informações mantidas em diversos computadores em uma rede) ou de recursos semelhantes. “A Internet passa a ser utilizada, de forma mais expressiva, para atender finalidades jornalísticas, a partir de sua utilização comercial, que se dá com o desenvolvimento da Web no início dos anos 90” (PALACIOS et al, 2001, p. 2). Os estudos do professor John Pavlick, da Universidade de Columbia, classificam o Jornalismo Online em três estágios: “o 1º seria apenas a transposição da versão impressa para a Internet, o 2º esta transposição e mais alguns produtos diferenciados do jornal de papel e o 3º um produto totalmente exclusivo para a internet” (QUADROS, 2002, p. 2). Para tratar mais detalhadamente acerca das mudanças ocorridas no Jornalismo Online, relata-se na sequência um breve histórico do Jornalismo Online. O boom dos diários digitais ocorreu entre 1995 e 1996. À época, empresários da comunicação nos Estados Unidos vislumbraram, nesta oportunidade de oferecer um diário de fácil acesso ao usuário, uma nova forma de obter lucros. Experiências no laboratório de design coordenado pelo jornalista e designer Roger Fidler deram origem ao flat panel, que pretendia ser o “protótipo do diário do futuro”. Esses estudos “foram considerados no momento de criar as páginas web do The San Jose
  • 30. 30 Mercury Center, que possuía desde 1993 uma versão eletrônica distribuída pela companhia America On line por meio de uma rede própria” (QUADROS, 2002, p. 3). De acordo com Quadros (2002), os primeiros jornais que se notabilizaram na Internet foram o The San Jose Mercury Center, criado em 1995, e o The NandO Times, criado em 1994 pela empresa McClactchy Newspaper Inc., responsável pela edição do diário impresso News & Observer. No boom da Internet, nos Estados Unidos, na Espanha e no Brasil, a maioria das redações online era formada por jovens profissionais, com um bom currículo acadêmico, mas com pouca experiência na área. O editor do The NandO Times, Seth Efron, afirmava que era conveniente contratar jornalistas menos experientes para trabalhar nas redações online, porque "eles não têm noções preconcebidas do Jornalismo" (IANZITO, 1996 apud QUADROS, 2002, p. 4). A redação digital do The San Jose Mercury Center contava com profissionais empenhados em construir conteúdo e linguagem específicos para a Internet. Em 1996, fazia parte do quadro de jornalistas do The San Jose Mercury Center, o jovem Mark Hull. Com apenas 21 anos, ele foi responsável por uma reportagem distribuída na rede sobre como o lucro das vendas da cocaína a certos bandos de Los Angeles iam parar em um fundo da CIA, agência norte-americana de inteligência (QUADROS, 2002, p. 3-4). Em 1993, o MIT (Instituto Tecnológico de Massachusetts) nos Estados Unidos deu início ao News in the Future, um projeto de pesquisa, com o apoio de empresas jornalísticas de todo o mundo, para estudar “novas formas de criar jornais mais interativos, úteis e de fácil acesso” (QUADROS, 2002, p. 4). A partir deste projeto, os pesquisadores criaram o diário digital Fiswrap, em que procuravam utilizar todos os recursos interativos da hipermídia possíveis, com o intuito de se tornar referência para os jornais eletrônicos. As criações do diretor do MIT, Nicholas Negroponte, serviram de modelo para muitos jornais. Ele criou, por exemplo, o jornal personalizado Daily Me, que oferecia serviços dirigidos para cada leitor. Apesar de nunca ter obtido uma circulação massiva, o Daily Me contribuiu significativamente para os estudos desenvolvidos na área e reforçou a necessidade de preparar jornalistas para a Internet: "Ser digital supõe o surgimento de um conteúdo totalmente novo, de novos profissionais (...)" (NEGROPONTE, 1994 apud QUADROS, 2002, p. 5).
  • 31. 31 Nos Estados Unidos, diversas empresas norte-americanas cooperaram para o desenvolvimento dos jornais online. Em 1995, foi criada nos Estados Unidos a companhia New Century Network, uma associação de oito editoras de jornais: Knight-Ridder, Cox Newspaper, Gannett Co. Inc., Hearst Corporation, The Washington, Post Corporation, Times Mirror Co., Tribune Co. e Advance Publication Inc. "No total, estas oito empresas publicam [referente ao período de 1995] 185 diários, com uma tiragem conjunta de mais de 20 milhões de exemplares, o que representa um terço da indústria de diários nos Estados Unidos" (GARNEAU, 1994 apud QUADROS, 2002, p. 5). Estes periódicos serviram de referência para jornais que chegavam à rede ou que pretendiam alcançar um estágio mais avançado na World Wide Web; no entanto, a maioria deles reproduzia os conteúdos e o design das versões impressas. A editora do The New York Times Eletronic Media Company, Elizabeth Osder, por exemplo, sempre demonstrou a preocupação em atender as exigências da internet e, principalmente, de seu público: “Agora nosso desafio é construir um novo conteúdo para um novo meio: o mundo da grande teia” (OSDER, 1997 apud QUADROS, 2002, p. 6). Elizabeth acreditava também que, para as próximas gerações dos jornais digitais, seriam necessários editores preparados para o desenvolvimento de novos produtos que aproveitassem as vantagens do hipertexto. O The Washington Post.com, criado pela empresa Digital Ink Co., foi desenvolvido com a intenção de oferecer um produto distinto da versão impressa do The Washington Post, sendo considerado, em 1995, "um dos mais completos exemplos do novo enfoque do jornalismo na internet" (McADAMS, 1995 apud QUADROS, 2002, p. 6). À época, os jornalistas estavam utilizando novas ferramentas e começando a desenvolver a linguagem e os conceitos apropriados para a Web. As atualizações eram feitas a cada seis horas na maioria das redações online, o que resultava em uma carga de trabalho mais desgastante para os profissionais em relação àqueles que atuavam no jornal impresso. Em 1996, o produtor online da Digital Ink, Bill Frischling, relatou que “começava todos os dias às seis horas da manhã e só concluía seu trabalho às seis da tarde” (QUADROS, 2002, p. 6). Na Espanha, o primeiro diário digital foi o Boletim Oficial do Estado, criado em 1994, segundo Quadros (2002). O Boletim Oficial do Estado possuía o mesmo conteúdo da versão impressa, mas podia ser consultado antes de sua distribuição
  • 32. 32 em papel. No ano seguinte, diversas empresas de comunicação espanholas já tinham uma versão eletrônica de seu jornal impresso. Em 1° de abril de 1995, surgiu o diário digital Avui, depois foram lançados o El Periódico de Catalunya e o La Vanguardia. Inicialmente, era apresentado o mesmo conteúdo das versões impressas, mas pouco a pouco, passou-se a oferecer serviços mais interativos. Luis Ángel Fernández Hermana, editor da revista científica Enredando e colunista do El Periódico de Catalunya, ressaltou as responsabilidades das empresas e dos jornalistas diante da Internet. Os meios deverão passar por um doloroso processo de reconhecer que o mundo não é só aquilo que eles publicam, mas também muitas outras coisas que estão sendo disponibilizadas na Rede. Isto será um enorme desafio para os meios (...) E os jornalistas receberão a informação da própria internet para realizar o seu trabalho, mas também deverão disponibilizar informação para a Rede. É fundamental a troca de informações (FUENTES I PUJOL, 1997 apud QUADROS, 2002, p. 7). Ainda em 1995, a grande imprensa de Madri começou a criar suas versões online. O ABC, jornal de circulação nacional, disponibilizou sua versão eletrônica em 19 de setembro de 1995 e dois anos depois, contava com quatro profissionais responsáveis exclusivamente pela sua produção. “Eles começavam a trabalhar às onze da noite e quase sempre saiam da redação às seis horas da manhã” (QUADROS, 2002, p. 8). Segundo Avelino Buendía, um dos responsáveis pelo ABC eletrônico, a idéia naquele período era ampliar o número de jornalistas para oferecer outros serviços e atualizações mais constantes. "Como não há muitos profissionais na redação digital do ABC, é impossível atualizar as notícias durante 24 horas do dia, como costumam fazer alguns diários eletrônicos em diversas partes do mundo" (BUENDÍA, 1997 apud QUADROS, 2002, p. 8). Os jornalistas aproveitavam todo o conteúdo do diário impresso; mas essa não era uma tarefa fácil, porque eles não tinham encontrado um programa que atendesse a todas as suas necessidades: "Nós tínhamos dificuldades para acrescentar alguma notícia ou corrigir outra, porque o nosso servidor ficava em Bilbao. Os problemas de transmissão eram terríveis” (BUENDÍA, 1997 apud QUADROS, 2002, p. 8). Em maio de 1995, o diário digital El Mundo foi para a Web. A versão eletrônica nasceu do esforço do jornalista Mario Tascón, professor da Universidade de Navarra e atual diretor do El Mundo online, que na época era chefe da seção de infográficos do jornal impresso. “Quando o produto despertou o interesse do público
  • 33. 33 e chamou a atenção dos empresários do jornal, Mário Tascón pôde contar com o apoio de um redator que, no início de sua carreira, era responsável pela base de dados da versão impressa do El Mundo” (QUADROS, 2002, p. 8-9). Inicialmente, os leitores tinham acesso apenas ao suplemento Campus, dirigido aos jovens; mas com o tempo outras seções do jornal impresso foram disponibilizadas na rede. Em 1996, mais dois jornalistas, oriundos da Universidade de Navarra, foram contratados para a cobertura das eleições gerais. Em 1997, a redação do então chamado El Mundo del Siglo XXI já contava com 10 profissionais e o diário digital começou a apresentar resumos das principais notícias de várias seções da versão impressa: Nacional, Internacional, Economia, Esportes e Ciências. A primeira emissão do El País Digital foi em 4 de maio de 1996, coincidindo com o 20º aniversário de sua versão impressa. No entanto, antes de ser disponibilizado, sua equipe trabalhou em seu projeto durante dez meses. Em meados de 1997, a equipe era formada por dez redatores e três profissionais técnicos. "Aqui utilizamos praticamente todo o texto da sua versão impressa. Nossa responsabilidade é adequar os conteúdos para o diário digital, explorando os recursos oferecidos pelo hipertexto e outras ferramentas. Elaboramos um breve resumo da notícia, uma chamada para a reportagem etc", afirmou Lucía Anguito Mayo, uma das redatoras do El País Digital, em entrevista à pesquisadora Claudia de Quadros. Na época, o horário do trabalho era a principal queixa dos jornalistas dos diários eletrônicos em todo o mundo, assim como os do El País Digital: Como necessitamos trabalhar com o jornal impresso praticamente concluído, porque utilizamos os textos do diário que estará nas bancas no dia seguinte, iniciamos a nossa jornada às oito horas da noite. O fechamento é, normalmente, às quatro da manhã, porque o jornal digital demora uma hora para ser comprimido e transmitido para a Rede (MAYO, 1997 apud QUADROS, 2002, p. 10). Na América Latina, o pioneiro no Jornalismo Online foi o Grupo Estado, por meio da Agência Estado/Broadcast. Em junho de 1993 foi iniciado o projeto Estadão Multimídia e em agosto do mesmo ano, o Grupo Estado começou a explorar novas ferramentas, como o fax e os boletins eletrônicos em formato BBS (Bulletin Board System). Em março de 1995, o jornal digital do Estadão, então denominado NetEstado, foi estruturado. A arquitetura das primeiras páginas web foi planejada em julho, mas só foi disponibilizada em 8 de dezembro de 1995. “Por isso, o Jornal do Brasil é considerado o primeiro diário digital do País a fazer cobertura completa no
  • 34. 34 espaço virtual” (MOHERDAUL, 2000 apud QUADROS, 2002, p. 12). O Jornal do Brasil foi disponibilizado integralmente na rede em 28 de maio de 1995. No entanto, apesar do Jornal do Brasil ser considerado o pioneiro, as conquistas e os esforços dos jornalistas da versão digital de O Estado de São Paulo contribuíram de forma mais significativa para o desenvolvimento do Jornalismo Online. O primeiro site do jornal O Estado de São Paulo foi denominado Panorama e continha uma revista feminina intitulada Mulher com artigos exclusivos. "Acredito que foi uma das primeiras publicações eletrônicas do Brasil a tratar de temas predominantemente femininos", destacou Luciano Martins Costa, ex-diretor e criador da versão digital de O Estado de São Paulo, em entrevista à pesquisadora Claudia de Quadros. Na fase inicial, o projeto do NetEstado contava com dois jornalistas e uma técnica em informática, mas quando o diário entrou na rede, já havia quatro jornalistas, um coordenador e dois técnicos. “Em meados de 1997, a redação digital era formada por sete jornalistas e cinco técnicos. Três redatores produziam as últimas notícias, que podiam ser acessadas por meio de links para a Agência do Estado” (QUADROS, 2002, p.12). Em 2002, Luiz Octavio Lima, o ex-editor especial do NetEstado, assumiu a coordenação da versão online do Estadão. A equipe era composta por “dois editores especiais, três redatoras, três analistas de sistemas, um assistente e um auxiliar de produção gráfica, além dos técnicos de informática” (QUADROS, 2002, p.12). A arquitetura Web sofreu diversas alterações desde a implementação. No final de 1997, era coordenada pelo designer Mario Garcia, conhecido pelo trabalho no desenvolvimento de novas interfaces para sites jornalísticos nos Estados Unidos e Europa. Ainda segundo Quadros (2002), a evolução do diário digital de O Estado de São Paulo ainda está relacionada com o convênio mantido com o já citado grupo News in the Future, do MIT. Segundo Luciano Costa, todos os sites do Grupo Estado procuraram, desde a assinatura do convênio, utilizar os informes do MediaLab para obter uma orientação sobre as possíveis mudanças, evitando assim muitos investimentos em recursos tecnológicos com pouco futuro (QUADROS, 2002, p.13). Um fato curioso na história do Jornalismo Online brasileiro é que, no final de 1997, jornalistaS fumantes não podiam fazer parte da redação online de O Estado de São Paulo.
  • 35. 35 Os técnicos costumavam dizer que a fumaça poderia afetar os equipamentos informáticos e os editores de O Estado de São Paulo entendiam que a dependência ao cigarro significava diversas saídas da redação e, consequentemente, resultava em uma baixa produção (QUADROS, 2002, p.13). Regianne Bochichi, uma das produtoras da versão digital de O Estado de São Paulo, entrou para a equipe do Estado Multimídia em 1995, depois de ter atuado em rádio e televisão. Em entrevista à pesquisadora Claudia de Quadros, afirmou que encontrou na redação online mais estímulo para sua criatividade. O trabalho não está limitado a uma função. É possível acompanhar todo o processo de edição, proporcionando uma ampla visão dos fatos do dia. Além disso, é possível utilizar recursos, como o som e a imagem em movimento, que são impossíveis na versão impressa (QUADROS, 2002, p.13). Em março de 1995, o Caderno Informática Etc. do jornal O Globo foi lançado na web. Em 29 de julho de 1996, surgiu o diário digital O Globo On-line, um dos produtos do portal Globo.com. Ao final do mesmo ano, foi formada uma equipe exclusiva (com jornalistas, técnicos e especialistas em marketing) para a versão digital de O Globo, com sede no Rio de Janeiro. O superintendente Henrique Caban justificava o atraso de O Globo na Internet como uma estratégia: "Não queremos colocar na Rede nada que não esteja pronto. Não basta colocar o jornal impresso no computador. Vamos explorar o que a internet pode oferecer, como a atualização online durante todo o dia” (SIQUEIRA, 1996 apud QUADROS, 2002, p.13-14). No final de 1997, oito jornalistas produziam conteúdo em tempo real e seis enriqueciam estas notícias. Em 2002, a redação digital era coordenada pela editora-chefe Joyce Jane Corrêa Meyer, e “o Globo On-Line contava com um editor-executivo, um gerente comercial, três editores, dois editores de capa, dois de ambientes especiais, um de interatividade, um editor de criação que comandava um equipe de quatro profissionais e 11 repórteres, além da equipe responsável pela gestão tecnológica” (QUADROS, 2002, p. 14). Voltando à perspectiva global, o que se percebe, nos últimos anos, é uma queda nas receitas das mídias convencionais pela redução no número de leitores, pela falta de credibilidade e pela migração da publicidade para a web, de acordo com Pereira e Adghirni (2011). Em 2009, segundo declarações do executivo-chefe de um dos maiores grupos de jornais dos Estados Unidos, 19 dos 50 maiores jornais
  • 36. 36 daquele país estavam perdendo dinheiro e esse número cresceria ainda mais nos anos seguintes, conforme Weaver (2009) apud Pereira e Adghirni (2011). Os jornalistas também estão sendo ameaçados. Em 2007, redações norte-americanas já haviam demitido cerca de 2.400 jornalistas, o que representa uma redução de 4,4% com relação ao ano anterior, segundo dados apresentados em 2008 pela American Society for Newspapers Editors, número que provavelmente se agravaria no ano seguinte por conta da crise financeira que atingiu aquele país, segundo Mosco (2009) apud Pereira e Adghirni (2011). Ao mesmo tempo, autores como Russel (2009) afirmam que a crise nos jornais impressos contrastaria com o crescimento de publicações na Internet e a explosão das informações disponíveis ao público: “A quantidade de novos materiais produzidos a cada dia, o acesso a esse material e as variedades na forma e no conteúdo, a participação [do público] na produção e disseminação disso – tudo isso está explodindo” (RUSSEL, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 3). Todos estes avanços e adaptações do Jornalismo Online, indubitavelmente, tiveram consequências, tanto na forma de receber a notícia quanto na forma de produzi-la. Estas mudanças comportamentais dos receptores, nas rotinas produtivas e no perfil profissional dos jornalistas serão explanadas na sequência. 2.3 MUDANÇAS NO FAZER JORNALÍSTICO Em função do desenvolvimento da Internet, chegou a ser cogitado o desaparecimento do Jornalismo convencional (ou pelo menos dos jornalistas enquanto intermediários). No entanto, com o passar do tempo, pesquisadores da área concluíram que o surgimento de novos formatos midiáticos não pode ser considerado “um processo evolucionário linear, de superação de suportes anteriores por suportes novos, mas como uma articulação complexa e dinâmica de diversos formatos jornalísticos, em diversos suportes, em convivência (e complementação)” (PALACIOS, 2003, p. 6). As mudanças socioeconômicas e inovações tecnológicas têm provocado profundas alterações nos processos de produção e apresentação da notícia. Pereira e Adghirni (2011) afirmam que, inclusive, alguns formatos canônicos do texto
  • 37. 37 jornalístico – como o lead e a pirâmide invertida - bem como os critérios de noticiabilidade foram se modificando nesse novo cenário. “Ao mesmo tempo, novas rotinas produtivas e novos formatos para o conteúdo jornalístico emergem. Tais mudanças podem ser atribuídas à possibilidade de acesso a informações por meio de bases de dados, à convergência de mídias e de redações e à proliferação de mídias institucionais e de ferramentas de autopublicação” (PEREIRA; ADGHIRNI, 2011, p. 8). Uma das primeiras mudanças percebidas após o surgimento do Jornalismo Online foi no comportamento dos consumidores de notícias. Anteriormente, ler o jornal diário ou ouvir as notícias no rádio eram atividades inseridas na rotina das pessoas, como explana Rasêra: A leitura do jornal impresso era (e ainda é para pessoas mais tradicionais) uma atividade para ser feita ao tomar o café da manhã; à noite era hora do noticiário televisivo; e ao longo da semana e conseqüentemente do mês, era feita a leitura das revistas entregues nas residências por meio de assinaturas. Por muito tempo, estas eram as fontes disponíveis para o consumo de notícias (RASÊRA, 2010, p. 6). Entretanto, com a evolução da Web e do Jornalismo Online, o conteúdo multimídia passou a ser produzido e distribuído mais rapidamente, o que “introduziu, no início do século 21, uma era de abundância informativa, caracterizada pela preocupação sobre o crescente custo-benefício entre qualidade e quantidade de informação” (BOCZKOWSKI, 2010, loc. 2445 apud CORRÊA; BERTOCCHI, 2012, p. 34). Com isso, as pessoas passaram a consumir notícias de uma maneira praticamente involuntária. Alguns segundos de um canal a cabo de jornalismo 24 horas, enquanto mudam o canal da televisão; o programa de rádio com as notícias da hora, enquanto dirigem e escutam música; uma olhada por todas as manchetes de jornais pregados nos quiosques nas ruas; comentários gerais postados nas paredes da cantina do local de trabalho; comentários das notícias na homepage do Yahoo! enquanto procuram por alguma coisa online; resumos de e-mails mal digitalizados; e até mesmo, na hora do jantar, o cônjuge comenta alguma coisa vista em algum outro lugar qualquer (RASÊRA, 2010, p. 6). Alguns pesquisadores afirmam que “as pessoas estão passando mais tempo consumindo notícias em diferentes formatos do que faziam antes em um único meio” (RASÊRA, 2010, p. 7). Assim, os receptores não estão mais recorrendo a um só meio de comunicação.
  • 38. 38 Ele [internauta] procura tudo. Ávido, é capaz de visitar 100 sites em 100 segundos, vê de tudo, gosta de novidades e está a cada dia mais surpreso com o poder da rede. E quanto mais ele a conhece, mais ele a ama. E se torna mais exigente. E depura mais o que vai ler. E isso transcende na Web: o cidadão quer mais qualidade em tudo, principalmente no que lê. Exige a honestidade. Se for para arriscar um futuro, vejo as pessoas selecionando cada vez mais a qualidade da sua leitura e as publicações que o acompanham no cotidiano. Este é o leitor cada vez mais valorizado, pois é mais preparado para exigir qualidade de produtos e serviços, incluindo editoriais (NETO apud SHÄFFER, 2007). Essas mudanças no comportamento dos receptores implicaram em mudanças também na produção e na distribuição de notícias, já que as empresas que não atentassem para esse fator poderiam rapidamente perder espaço no mercado. Os jornalistas têm sido “pressionados a buscar alternativas para o processo de coleta e formatação de informações para atender às novas exigências do público (mais ativo e participativo), o que implica em redefinir seus próprios valores” (MCNAIR, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 2). Por um lado, “observa-se o aumento do conteúdo de entretenimento, resultado da intensificação da concorrência e das pressões exercidas pelos departamentos comerciais das empresas de comunicação” (CHARRON; BONVILLE, 2004; HALLIN, 1996 apud PEREIRA; ADGHIRNI, 2011, p. 2). Por outro, “empresas convergem suas diferentes operações midiáticas, criando novas plataformas, produtos híbridos exigindo que os profissionais de redação passem a produzir conteúdos multimídia e assumam o perfil multitarefas” (DEUZE, 2005; JORGE; PEREIRA; ADGHIRNI, 2009 apud PEREIRA; ADGHIRNI, 2011, p. 2). A pressão do tempo sobre a produção das notícias é uma das marcas permanentes do Jornalismo ao longo de sua história, mas o desenvolvimento das tecnologias digitais acelerou este processo nos últimos 20 anos, segundo Pereira e Adghirni (2011). “Na realidade, as representações temporais são uma das maiores revoluções do Jornalismo depois que a internet quebrou o ritmo circadiano da notícia” (PEREIRA; ADGHIRNI, 2011, p. 8). Diferentes estudos já apontam para este cenário de aceleração do ciclo de produção, circulação e consumo da notícia jornalística. Esse processo não foi motivado exclusivamente pela introdução da Internet, mas se deve a uma aceleração do tempo social e à adoção do formato de agências de notícias pelos jornais brasileiros, de acordo com os autores supracitados. O desenvolvimento das tecnologias digitais na última década apenas
  • 39. 39 acelerou esse processo, fazendo com que os principais jornais começassem a disponibilizar informações produzidas em fluxo contínuo. Isso aumentou a pressão – por parte das empresas e do público – sobre os jornalistas pela atualização constante do conteúdo (Adghirni, 2004; Pereira, 2004; Weiss e Joyce, 2009). Ao mesmo tempo, perdura a cobrança pela publicação de notícias bem apuradas, que contenham informações de background e diversidade de fontes (Nguyen, 2010). Demanda, na verdade, que remete a uma antiga contradição (Moretzsohn, 2002): como produzir jornalismo de qualidade se não há disponibilidade de tempo hábil para uma boa apuração? Como conciliar as demandas por velocidade e “verdade” na produção jornalística? (PEREIRA; ADGHIRNI, 2011, p. 9). Outras mudanças percebidas são em relação ao aumento no número de atribuições dos jornalistas, concentrando processos como pesquisa, redação, edição, ilustração, publicação e pós-publicação em um único profissional, de acordo com Steensen (2009) apud Pereira e Adghirni (2011). Alguns jornalistas também acabam produzindo conteúdo para vários formatos midiáticos (impresso, TV, rádio, on-line), o que exige o desenvolvimento de novas competências e sobrecarga de trabalho. “Situação que as empresas adotam e vendem com orgulho, levando o profissional a assumir o slogan de jornalista 24 horas” (PEREIRA; ADGHIRNI, 2011, p. 10). Por outro lado, as tecnologias possibilitam que os jornalistas possam, cada vez mais, apurar as informações necessárias à produção de uma matéria sem sair das redações. E aumentou também a possibilidade de oferecer conteúdo mais aprofundado, já que o espaço virtual é praticamente ilimitado no que diz respeito à quantidade de informação que pode ser produzida, recuperada, associada e colocada à disposição do público-alvo. É fundamental que se enfatize que se trata da primeira vez que isso ocorre na História do Jornalismo, uma vez que, em todos os suportes anteriores (impresso, rádio, TV), o jornalista era obrigado a conviver com rígidas limitações de espaço (que se traduzem em tempo, no caso do rádio e TV) (PALACIOS, 2003, p. 8). Os jornais e revistas têm dado atenção cada vez maior para a produção de conteúdo exclusivo para a Internet. Se antes o conteúdo produzido para as mídias impressas era apenas replicado (integralmente ou em parte) no site do veículo; atualmente o Jornalismo Online se desenvolveu a ponto de ter equipes exclusivas com jornalistas, editores e fotojornalistas próprios. “Com o crescimento da massa de informação disponível aos cidadãos, torna-se ainda mais crucial o papel
  • 40. 40 desempenhado por profissionais que exercem funções de filtragem e ordenamento desse material, seja a nível jornalístico, acadêmico, lúdico, etc.” (PALACIOS, 2003, p. 6). O jornalista online tem que fazer escolhas relativamente ao(s) formato(s) adequado(s) para contar uma determinada história (multimídia), tem que pesar as melhores opções para o público responder, interagir ou até configurar certas histórias (interatividade) e pensar em maneiras de ligar o artigo a outros artigos, arquivos, recursos, etc., através de hiperligações (hipertexto) (DEUZE, 2006, p. 18). O jornalista da redação digital tenta trabalhar para um púbico específico, como ocorre na sua versão impressa. A diferença é que no computador, o profissional busca uma fórmula para ser global e despertar o interesse de leitores de diversas partes do mundo. A internet ainda implora pelo desenvolvimento de normas, linguagens e modelos comerciais apropriados (QUADROS, 2002, p. 11). Diante da abundância informativa na web, Corrêa e Bertocchi (2012) falam da importância de uma “curadoria da informação”, no sentido de uma organização das informações na rede. Elas citam Rosenbaum (2011), que chama esse volume crescente de informações de "tsunami de dados" e Beiguelman (2011) que o chama de "dadosfera". Sem dúvida, o excesso de informação tende a continuar crescendo e lidar com isso torna-se um grande desafio. O maior mecanismo de busca da rede, o Google, por exemplo, só consegue varrer 5% das informações disponíveis na internet. E apesar de surgirem ferramentas de pesquisa como buscadores personalizados e direcionados, a atividade de curar a informação é imprescindível, pois as ferramentas e os aplicativos não dão conta de tudo o que acontece e não tem o olhar humano também (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 61). As autoras defendem que há muito mais uma “curadoria algorítmica de informação do que propriamente humana” (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 26). Isto por que "os algoritmos estão desempenhando um papel sociotécnico cada vez mais importante na mediação entre jornalistas, audiência e produtos de mídia" (ANDERSON, 2011, p. 529 apud CORRÊA E BERTOCCHI, 2012, p. 31). O argumento de Anderson se justifica pelo fato de diversos sites já utilizarem algoritmos para organizar seu conteúdo, como por exemplo: os buscadores (Google e outros), as redes sociais (Facebook), os sistemas agregadores baseados em RSS (GoogleReader), os sistemas de recomendação (Amazon, LastFM, Spotify), os produtos baseados em feeds (Paper.Ly, Scoop.it, Storify, Washington Post Social Reader) e as ferramentas de organização da
  • 41. 41 informação por meio de imagens (Pinterest, WeHeartIrt). Há também os sistemas publicadores de conteúdo ou CMS (Content Management Systems), publicadores de blogs (Wordpress, Tumblr), publicadores personalizados (Joomla, Drupal) e publicadores proprietários criados por empresas informativas. As autoras nomeiam esses exemplos como "ferramentas de organização da abundância informática por meio de algoritmos" (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 30). Na verdade, a atividade de curadoria de informação está presente na Internet desde seus primórdios, visto que os mecanismos de busca sempre priorizaram a organização e a recuperação das buscas de formas e com hierarquias e prioridades diferentes. E por volta de 1997 e 1998, os primeiros blogs já faziam um tipo de curadorias através da recomendação e divulgação de links. No Jornalismo Online, o curador de informação deve “combinar competências de re-mediação, agregação de audiências, mineração de dados, inteligência distribuída, agenciamentos e adição de valor visando o exercício da ação comunicativa que, em última instância, objetiva a fixação e disseminação de mensagens, e a respectiva obtenção de valor como retorno” (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 34). Dessa forma, as ferramentas baseadas em algoritmos funcionam como parceiras do comunicador. É de se esperar que o comunicador-curador consiga participar dialogando com a tecnologia da construção de algoritmos, sistemas CMS e de aplicativos e, simultaneamente, ter uma visão sócio-antropológica do comportamento e das tendências de seu público-alvo (CORRÊA; BERTOCCHI, 2012 apud CORRÊA, 2012, p. 37). Beiguelman (2011 apud CORRÊA; BERTOCCHI, 2012) propõe três possíveis modelos de curadoria online, combinando elementos humanos e não-humanos. São eles: curador como filtrador, curador como agenciador e a plataforma como dispositivo curatorial. O curador-filtrador contextualiza informações e observa seus efeitos. Já o curador-agenciador seleciona e relaciona os conteúdos, além de fazer a mediação com os receptores da informação. O dispositivo curatorial, por sua vez, potencializa e facilita a organização das informações por meio de suas funcionalidades, que amplificam estrategicamente a produção e seleção de conteúdo. A esses três modelos de curadoria propostos por Beigueilman (2011), Corrêa e Bertocchi (2012) adicionam mais dois, que são: o curador como crítico e a
  • 42. 42 recomendação como curadoria. No primeiro caso, o curador seleciona e compartilha alguma informação e faz um comentário ou crítica sobre a mesma. Já o segundo caso está relacionado aos filtros de informação que visam identificar perfis de consumo: um processo que ocorre por meio de softwares que tentam antecipar os interesses do consumidos nos ambientes digitais ou por meio de agentes humanos que atualizam o sistema com informações e categorizações, como ocorre com a folksonomia (tagueamento), por exemplo. Se devidamente inseridas nas rotinas produtivas das redações online, as técnicas de SEO podem ser incluídas entre essas várias formas de se organizar informações na Web, uma vez que contribuem para a localização de conteúdo de acordo com os interesses de cada leitor. Apesteguy (2013) afirma que as principais vantagens em aplicar técnicas de SEO nas redações de sites de notícia são: trazer mais leitores em curto prazo; tornar-se referência na Web sobre um determinado assunto; e aumentar o número de comentários, curtir, compartilhamentos e links apontando para sua matéria. O que ajudará a firmar sua posição nos resultados de busca. Alvarez (2011) pontua que é possível que jornalistas usem técnicas de SEO sem precisar alterar seu estilo de redação. Não são necessárias intervenções forçadas e sem sentido para alcançar relevância perante os buscadores. Para melhor ilustrar o atual interesse das grandes redações online nas possibilidades do SEO para a geração de tráfego aos seus sites e para a pulverização das notícias, o capítulo a seguir traz a experiência de quatro profissionais de diferentes grupos de comunicação.
  • 43. 43 3 MÉTODO E ANÁLISE Para a viabilização deste levantamento sobre a utilização das técnicas de Search Engine Optimization no Jornalismo Online brasileiro, apresentar-se-á neste capítulo a experiência de quatro profissionais que atuam em redações online no Brasil. A seguir descrevem-se os procedimentos metodológicos que guiam o estudo. 3.1 PROCEDIMENTOS METODOLÓGICOS A fim de reunir informações que complementem a literatura apresentada, realizou-se uma pesquisa qualitativa, sem se preocupar com representatividade numérica, generalizações estatísticas e relações lineares de causa e efeito. O enfoque é a compreensão das informações de modo mais global, relacionando fatores e privilegiando contextos. Os dados coletados nessas pesquisas são descritivos, retratando o maior número possível de elementos existentes na realidade estudada. Preocupase muito mais com o processo do que com o produto (PRODANOV; FREITAS, 2009, p. 70). A literatura verificada compreende aspectos históricos da Internet, dos mecanismos de busca, das técnicas de SEO e do Jornalismo Online e as mudanças pela qual esse passou. Nesse sentido, o intuito foi reunir a literatura disponível, traçando um fio condutor e conector entre os assuntos e os complementando com o ponto de vista de profissionais da área. Quanto a seus objetivos, esta é uma pesquisa exploratória, já que visa conhecer em maior profundidade o tema a ser investigado, que conta ainda com poucos estudos específicos. ”Este tipo de pesquisa é realizado especialmente quando o tema escolhido é pouco explorado e torna-se difícil sobre ele formular hipóteses precisas e operacionalizáveis” (GIL, 2008, p. 27). A pesquisa exploratória possui planejamento flexível, o que permite o estudo do tema sob diversos ângulos e aspectos. Em geral, envolve: levantamento bibliográfico; entrevistas com pessoas que tiveram experiências práticas com o
  • 44. 44 problema pesquisado; análise de exemplos que estimulem a compreensão, segundo Prodanov e Freitas (2009). Quanto aos procedimentos adotados para a coleta de dados, realizou-se inicialmente uma pesquisa bibliográfica em livros, artigos científicos e sites de referência nas áreas pesquisadas. “A principal vantagem da pesquisa bibliográfica reside no fato de permitir ao investigador a cobertura de uma gama de fenômenos muito mais ampla do que aquela que poderia pesquisar diretamente” (GIL, 2008, p. 50). Castells (2003) e Limeira (2003) foram os principais autores utilizados ao abordar Internet e Web. Já Fragoso (2007) e Kendzerski (2005) contribuíram com seus estudos sobre mecanismos de busca. Para tratar de SEO, foram consultados Apesteguy (2013), Ricotta (2008), Marcel (2009), Felipini (2010), Battelle (2006), Alvarez (2012), entre outros. Por sua vez, os estudos de Quadros (2002), Palacios (2003) e Pereira e Adghirni (2011) muito contribuíram para a apresentação da história do Jornalismo Online e suas principais caracterítiscas. As mudanças do fazer jornalístico ficaram a cargo de Corrêa e Bertocchi (2012) e Rasêra (2010). Foram realizadas também entrevistas estruturadas com quatro profissionais com conhecimento em SEO que atuam junto a redações online, a fim de coletar informações sobre a necessidade de conhecimento sobre SEO entre jornalistas que atuam ou irão atuar em redações online do Brasil. Segundo Prodanov e Freitas (2009), a entrevista é a obtenção de informações de um entrevistado sobre determinado assunto ou problema. Enquanto técnica de coleta de dados, a entrevista é bastante adequada para a obtenção de informações acerca do que as pessoas sabem, crêem, esperam, sentem ou desejam, pretendem fazer, fazem ou fizeram, bem como acerca das suas explicações ou razões a respeito das coisas precedentes (SELLTIZ, 1967, p. 273 apud GIL, 2008, p. 109). Quanto à entrevista estruturada, Prodanov e Freitas afirmam: “é quando o entrevistador segue roteiro preestabelecido. Ocorre a partir de um formulário elaborado com antecedência” (PRODANOV; FREITAS, 2009, p. 106). Para utilizar o conteúdo das entrevistas realizou-se análise de conteúdo. Laurence Bardin (2004) define a análise de conteúdo como um conjunto de técnicas de análise das comunicações que visa obter, por procedimentos sistemáticos e objetivos de descrição do conteúdo das mensagens, “indicadores (quantitativos ou não) que
  • 45. 45 permitam a inferência de conhecimentos relativos às condições de produção/recepção (variáveis inferidas) destas mensagens” (BARDIN, 2004, p. 37). A análise de conteúdo possui duas funções: heurística, onde enriquece a tentativa exploratória e aumenta a propensão à descoberta, em uma análise “para ver o que dá” (BARDIN, 2004, p. 25); e de administração de prova, onde hipóteses sob a forma de questões ou afirmações provisórias apelarão para o método de análise sistemática e serão verificadas para obter confirmação ou não. Para o autor, é uma análise “para servir de prova” (BARDIN, 2004, p. 25). Na sequência, apresentar-se-á cada um dos grupos de comunicação representados pelos entrevistados. A Infoglobo surgiu através do Jornal O Globo, que começou a ser distribuído no Rio de Janeiro em 1925. O Globo foi o primeiro no país e em toda a América Latina a disponibilizar seu conteúdo impresso no Kindle, o leitor para livros digitais (e-books) produzido pela Amazon. Em 2006, o site de O Globo completou 10 anos e teve seu layout renovado. O papel da Infoglobo, segundo histórico no site 10 do mesmo, é apurar os fatos para que possam ser veiculados nos jornais O Globo, Extra e Expresso e sites da Globo do Jornal Extra e da Agência O Globo. Em dezembro de 1998, a Infoglobo inaugurou o maior Parque Gráfico da América Latina. O projeto entrou para a História e se tornou uma referência em tecnologia e qualidade. O Grupo RBS foi fundado em 31 de agosto de 1957 por Maurício Sirotski Sobrinho, que naquele ano assumiu a direção da Rádio Gaúcha. Em 1962, entrou no ar a TV Gaúcha, hoje RBS TV que, por sua vez, conta com emissoras afiliadas à Rede Globo nos estados do Rio Grande do Sul e Santa Catarina. Em 1970, o grupo assumiu o controle do jornal Zero Hora. Os anos que se seguiram foram de expansão e novas aquisições e atualmente o Grupo RBS já conta com mais de 6500 colaboradores, segundo o site do grupo11. Por sua vez, o Correio Braziliense “é um jornal brasileiro com sede em Brasília, pertencente ao Grupo Diários Associados”12, que foi fundado em 21 de abril de 1960 por Assis Chateaubriand. E mesmo após a morte de Assis Chateaubriand, o Correio continuou a pertencer aos Diários Associados, sendo o principal jornal da Capital Federal. Na gestão do editor executivo Ricardo Noblat, foi o jornal brasileiro 10 Disponível em https://www.infoglobo.com.br/Anuncie/institucional.aspx. Disponível em http://www.gruporbs.com.br/quem_somos/index.php?pagina=grupoRBS. 12 Disponível em http://pt.wikipedia.org/wiki/Correio_Braziliense. 11