Monthly Archives: August 2006

Estatísticas Web – Recolha de Dados

Published by:

Antes de processar estatísticas é necessário recolher os dados relativos ao tráfego do site.

Existem vários tipos de dados e várias formas de obter esses dados.

Recolha de dados por inclusão

Uma das formas de recolher dados de tráfego mais utilizada entre os bloggers é através da inclusão de um código HTML em todas as páginas do site.

O código adicionado pode ser uma imagem ou um ficheiro javascript, ou mesmo um conjunto dos dois.

Nos casos em que é adicionada uma imagem esta é muitas vezes utilizada para mostrar um dos dados calculados a partir do tráfego (pageviews, unique Users, tamanho da long tail, depende de solução para solução, veremos detalhes de algumas delas mais à frente noutros posts), ou pode ser utilizada apenas para divulgar a solução utilizada.

Nos casos em que é utilizado um script javascript este pode ser utilizado para obter algumas informações adicionais acerca das condições de navegação do utilizador, que não são possíveis de recolher de outras formas. Alguns exemplos desta informação é a resolução do monitor ou os plugins que estão activos. Quase tudo o resto pode ser obtido por outras formas.

A grande vantagem das soluções de recolha de dados por inclusão é o software que faz a recolha trata tudo, sem ser necessário ter privilégios especiais no servidor onde o site está a correr. No caso dos blogs que estão nas principais plataformas grátis (blogger.com, blogs.sapo.pt, weblogs.pt, etc) esta é mesmo a única forma de se obter informação acerca do tráfego do site ou do blog.

A inclusão de código javascript em particular é a única forma de saber, por exemplo, que resolução têm os monitores dos utilizadores do site.

As desvantagens destas técnicas estão relacionadas com os utilizadores que não vêm imagens ou não correm javascript e os robots.

Com esta técnica os robots não correm os scripts javascript, pelo que não conseguimos saber quando é que o site é indexado, e mesmo quando se utilizam imagens os robots apenas a pedem um número muito restrito de vezes, e não sempre que pedem uma página onde elas apareçam.

O mesmo se passa com utilizadores que tenham as imagens ou o javascript desactivado ou que não suportem esse tipo de funcionalidades, como nos casos dos browsers de texto (como o links ou o lynx).

Recolha no servidor

A recolha de logs no servidor é uma das melhores soluções, e das mais simples de implementar quando se têm acesso às configurações do servidor.

A grande vantagem da recolha de dados no servidor é que todos os pedidos a que o servidor responde ficam registados nos ficheiros de logs, independentemente de serem feitos pelos robots dos motores de pesquisa, por browsers com suporte de imagens e javascript ou por browsers minimalistas, que apenas mostram texto.

Esta soluções, no entanto, nem sempre está disponível, como no caso em que o site se encontra numa das muitas plataformas de alojamento gratuito (ou nas ferramentas de blog grátis).

Recolha por sniffing

Uma terceira forma de recolher a informação de tráfego é sniffando essa informação da rede.

Esta é uma situação pouco comum, mas é bastante satisfatória quando existe uma grande quantidade de servidores, por vezes a correr em plataformas diferentes, mas em que todo o tráfego passa num ponto comum da rede, pois permite centralizar a recolha de logs, facilitando bastante a gestão dessa recolha, especialmente porque muitas vezes plataformas diferentes (IIS em Windows e Apache, por exemplo) produzem formatos de logs distintos, que são depois difíceis de comparar e analisar conjuntamente.

Conclusão

Estas três são as mais comuns formas de recolha de logs. Cada uma delas têm o seu próprio lugar, e pensar que uma delas é melhor ou pior é esquecer que na realidade cada uma delas se adapta mais facilmente a um determinado ambiente.

A forma como os dados são recolhidos depende do tipo de ambiente em que os sites a analisar se encontram, mas também da ferramenta de análise que se pretende utilizar. Algumas ferramentas incluem já o processo de recolha, normalmente por inclusão, outras dependem de formatos específicos de logs.

Nos próximos artigos ao analisar algumas das soluções de estatísticas mais conhecidas e utilizadas falarei sobre as formas de recolha de dados a utilizar para cada uma delas.


Estatísticas Web

Published by:

Nos últimos tempos, e especialmente entre os bloggers, volta a falar-se de estatísticas.

Mas o tipo de informação que se procura extrair dos dados de tráfego de um site ou blog é cada vez mais extensa e mais diversa.

Até há pouco tempo atrás os webmasters procuravam saber tops diversos, o número de pageviews e unique Users (e nalguns casos de visitas) de um site, e pouco mais.

Hoje procura-se um pouco mais de informação, especialmente no que diz respeito aos referers, os URLs de onde vêm os novos utilizadores.

Mas as ferramentas não evoluíram de forma completa, então são muitas vezes utilizadas diversas aplicações no sentido de obter informação estatística diversa.

Fiquem a saber um pouco mais sobre estatísticas Web ao longo dos seguintes posts:

Estatísticas – Unique Users

Published by:

O protocolo HTTP, e em consequência disso a Web, não pretende implementar sessões e identificação de utilizadores. Nas últimas versões do protocolo foram adicionadas funcionalidade que permitem, em determinadas condições, obter várias informações acerca dos utilizadores, mas ainda assim não é possível identificar um utilizador inequivocamente.

Em consequência disso, quando se contabilizam utilizadores únicos (Unique Users), recorre-se a vários métodos, que a seguir apresento.

IP + User Agent

O método de identificação de Unique Users que menos implicações tem é implementado através da utilização do IP do utilizador e do seu User Agent, e considera-se um utilizador único cada conjunto de IP e User Agent.

Este método tem vários problemas, nomeadamente, se vários utilizadores acedem à internet através da mesma ligação, com computadores configurados de forma idêntica, como muitas vezes acontece em ambientes empresariais, são contados como se de um único utilizador se tratasse.

Outra situação com idêntico problema é quando os pedidos de vários utilizadores passam por um mesmo proxy, sendo que neste caso o IP que chega ao site é o do proxy, e muitas vezes o próprio User Agent é o do proxy, e não o do browser do utilizador. Diversos pedidos para o mesmo URL, mesmo que feitos por utilizadores diferentes podem não chegar ao servidor e ser servidos de cache pelo proxy.

O problema oposto coloca-se quando um mesmo utilizador utiliza browsers diferentes, ou mesmo computadores diferentes. Idêntica situação ocorre quando o utilizador tem uma ligação à internet com IP dinâmico (o que representa a quase totalidade dos acessos à internet).

Nestas situações, o mesmo utilizador é contado múltiplas vezes, uma por cada par IP (publico)+Browser com que aceda ao site.

Cookies

Quando se utilizam cookies para identificar os utilizadores, sempre que um novo utilizador chega ao site è enviado um cookie ao browser, que depois o reenvia de volta em cada pedido que faz. Este cookie, normalmente, tem uma validade relativamente grande, por forma a permitir identificar os utilizadores ao longo de múltiplas sessões.

Mas também este sistema não é perfeito, pois existem várias situações em que um único utilizador é contabilizado várias vezes. Estes essas situações estão aquelas em que o utilizador apaga os cookies, em que utiliza browsers diferentes, ou mesmo computadores distintos, entre outras.

Noutros casos os utilizadores têm os browsers configurados por forma a não aceitarem cookies, e outras têm programas que impedem o envio dos cookies (normalmente firewalls).

Nesta situação contabiliza-se um Unique User por cada cookie diferente que se recebe.

Username

Alguns sites são privados, ou obrigam os seus utilizadores a registarem-se para conseguírem aceder a parte (ou ao todo) dos seus conteúdos.

Estes sites dispõem, provavelmente, da forma mais fiável de contabilizar os Unique Users, através do username utilizado.

Este sistema pode ainda ser distorcido, como nos casos em que o registo é grátis e o mesmo utilizador cria várias contas (porque um qualquer recurso que o site disponibiliza é limitado por utilizador, ou porque se esqueceu do username ou password originais, entre outras razões), ou nos casos em que o acesso é pago, e vários utilizadores partilham um acesso, reduzindo assim os seus (deles) custos.

Apesar disso, este é talvez o sistema mais fiável de contabilizar Unique Users, porque a maioria dos utilizadores vai autenticar-se com o mesmo username e password sempre que visitar o site, independentemente da forma como essa autenticação for feita.

Mas, nesse caso, porque não se utiliza sempre este sistema? Porque ele obriga a que os utilizadores estejam registados e que se autentiquem sempre que acedem ao site. É uma prática cada vez mais comum entre os grandes fornecedores de informação, como jornais, revistas ou sites noticiosos de grande dimensão, como o New York Times permitirem aceder aos seus arquivos apenas a utilizadores registados.

No entanto, na maioria das situações, os utilizadores não consideram aceitável registarem-se, especialmente se o site a que estão a aceder não lhes é ainda conhecido. Por isso outro métodos, são muito utilizadores, mesmo em sites onde existe a possibilidade de os utilizadores se registarem.

Conclusão

Estão são as três formas mais comuns de contabilizar utilizadores únicos. O terceiro métodos, do username de acesso, é pouco utilizado, especialmente porque os utilizadores gostam de acreditar que estão a aceder à internet de forma anónima, ainda que em muitos casos esse anonimato seja muito pouco mais que aparente (Como no caso dos dados da AOL, que referi recentemente).

Mas todos estes métodos de contabilizar Unique Users são falíveis, pelo que o valor deUnique Users deve sempre ser considerado como meramente indicativo.

A aplicação que se usa para calcular as estatísticas também tem influência nos resultados, e pode mesmo acrescer um novo conjunto de problemas ao problema apresentado, mas esses novos problemas não dizem já respeito apenas à contabilização dos Unique Users, mas a todo o processo estatístico, pelo que falaremos dele num post mais à frente.

Entretanto, têm estatísticas dos vossos blogs e sites? Que aplicações utilizam para as calcular?


Estatísticas Web – Conceitos

Published by:

Este é o primeiro de uma série de artigos sobre estatísticas Web. Uma breve apresentação da série será publicada nos próximos dias, sendo que, por hoje, vos deixo apenas uma apresentação de alguns dos conceitos e medidas mais utilizadas.

  • PageView: Um pageview é o equivalente a uma página visualizada pelo utilizador. Este conceito tem algumas variantes, como sejam automated pageview (quando a página faz refresh automaticamente) e repeated pageview (quando o utilizador faz refresh no browser manualmente, ou quando volta à página por qualquer razão).
  • Hit: Um hit é um request feito pelo browser. Imagens, ficheiros javascript, CSS, flash, e mesmo frames HTML, todos são considerados hits, mas apenas o pedido inicial é considerado para contagem de pageviews.
  • Unique User: Idealmente um Unique User corresponde a um utilizador único, a uma pessoa. Mas o mundo real está longe de ser um mundo ideal, e por isso este valor raramente coincide com o número de utilizadores únicos reais de um site. Existem várias formas de contabilizar este indicador, cada uma delas com as suas vantagens e desvantagens, pelo que voltaremos a este tópico nos próximos dias.
  • Visit: Uma visita é um conjunto de pageviews efectuados por um unique user, separados entre si por intervalos de tempo inferiores a um valor pré-definido (normalmente 30 minutos).
  • Referer ou Referrer: o referer(em inglês o correcto é referrer, mas referer é bastante mais utilizado) de uma página é o URL onde o utilizador se encontrava antes de vir para o nosso site. Os referers, normalmente, são listagens de pesquisas ou páginas com links para o nosso site. Por norma os referers internos (no próprio site não são considerados, mas podem conter informação muito interessante. Mais uma vez voltaremos aqui mais tarde).
  • Cookie: um cookie é um pequeno pacote de informação, que é enviado para o servidor sempre que são feitos pedidos. Pode ser utilizado para diversas finalidades, sendo a mais comum o controlo de sessões.
  • User Agent: cada browser, bem como a maioria dos robots e crawlers, tem uma assinatura própria, que enviam ao servidor sempre que trazem um pedido. A expressãoUser Agent é utilizada para significar o browser utilizado e a assinatura, sendo que, normalmente, a assinatura é o nome do browser.
  • RobotCrawler: Chama-se Robot a qualquer programa que faça de forma automática, independentemente da finalidade, pedidos de URL’s. Os robots mais comuns são os que indexam os sites para os motores de pesquisa. A este grupo de robots chama-se Crawler. Outro tipos de robots são, por exemplo, programas que copiam sites completos, independentemente da finalidade dessa cópia (com sorte apenas para leitura off-line, sem acesso à internet), programas de monitorização, entre muitos outros. Na maioria dos casos estes programas são identificados pelo User Agent (neste caso a sua assinatura). A razão porque estes User Agents são referidos é porque, uma vez que eles não representam utilizadores reais, não são considerados quando se contabilizamPageViews ou Unique Users.

Long Tail

Published by:

Recentemente assistiu-se a um fenómeno interessante em vários blogs portugueses. Esse fenómeno, a que chamarei fenómeno cantora convenientemente vestida fez-me pensar sobre long tail.

Uma long tail normalmente inclui palavras menos populares numa àrea, mas ainda assim relacionadas com essa área.

Com o fenómeno referido blogs essencialmente focados em tecnologia publicaram um post sobre o site da não referida senhora e repentinamente viram o seu tráfego sofrer picos logarítmicos, nalguns casos a passar de centenas de pageviews por dia para as centenas de milhar.

Entretanto houve mesmo quem se aventurasse a ir um pouco mais longe e fazer mesmo alguns testes, incluindo referência várias relacionadas com sexualidade, incluindo as conhecidas drageias azuis.

Se, por um lado, as referências originais foram consequência de uma simples referência a um site, nos testes seguintes tratou-se mesmo de verificar até que ponto se chegaria com as keywords mais usuais.

Antes que perguntem, não vejo problema nenhum nestas práticas, que não seja a dispersão do tipo de utilizadores do site.

Um site focado em tecnologia, normalmente é rentabilizado indirectamente e, por vezes, directamente.

A rentabilidade indirecta que um blogger obtém ao escrever sobre a sua área é a divulgação do seu nome junto dos seus pares e dos seus potenciais clientes ou entidades patronais (outro tipo de cliente).

Nalguns casos o blogger tenta também rentabilizar o blog colocando anúncios sob as mais diversas formas. É aos “lucros” resultantes destes anúncios que chamo de rentabilidade directa.

Mas, então, o que acontece quando um blog se vê repentinamente inundado por utilizadores que não têm interesse na sua área principal?

Para começar o blog tem uma quantidade de tráfego de visitantes com interesse no post um pouco (ou muito) fora do contexto, que podem até percorrer o blog, mas que vão acabar por esquecê-lo, porque este não se dedica regularmente aos temas do seu interesse.

Hoje esse tráfego extra não tem na maioria das situações um custo inerente (para o blogger, pelo menos), e quando o tem é relativamente reduzido. Nos casos em que o blog é rentabilizado directamente esse tráfego extra traduz-se por vezes num rendimento extra, consequência do aumento de visualizações ou clicks nos banners.

Mas é nestas situações, em que o aumento de tráfego se traduz em aumento de receitas que o perigo espreita.

Por vezes o blogger pode sentir-se tentado a trocar a sua forma tradicional de escrever (que por vezes foi o que tornou o seu blog conhecido e que, em última instância, fez com que as keywords erradas num dos seus posts o transformem no post mais lido de sempre) por artigos semeados de keywords nada relacionadas com o blog.

Com isso um blog com uma lista de keywords bastante relacionadas com a sua área torna-se num blog com uma long tail quase infinita, mas que não permite definir o perfil dos seus utilizadores.

Mas quando um blog perde o foco, perde também uma outra propriedade, a linkabilidade. Chamo linkabilidade à aptidão de um blog de obter links de outros blogs.

Um blogger que se foque num tema ou numa área vai pensar duas vezes em criar um link para outro blog que regularmente cria posts cheios de keywords, especialmente se essas keywords nada têm a ver com a área principal desse blog.

Existe ainda um outro risco, este relacionado com os cada vez mais eficientes algoritmos de indexação dos motores de pesquisa. Enquanto o racio entre os posts reais e as experiências sobrecarregadas de keywords se mantiver elevado o blog continuará a ser indexado, mas se esse rácio baixar muito o blog corre o risco de ser considerado spammer e banido dos motores de pesquisa ou, no mínimo, começar a ser penalizado.

E os motores de pesquisa estão à espreita e a cada dia que passa melhoram os seus algoritmos para eliminar dos seus índices URLs e sites que se dediquem a criar spam de keywords, nome porque esta prática é conhecida.

E esta também é uma razão para que blogs que não aderem a este tipo de práticas não apontem para sites que o fazem, pois os algoritmos dos motores de pesquisa têm, já hoje, uma componente de spamrank, em que o rank de spam que for atribuído a um site se propaga a todos os sites com links para ele, baixando com isso a posição dos sites com links para os spammers.

Acho, no entanto, que é importante fazer experiências, pois á a única forma de perceber realmente como as coisas funcionam. Mas fazê-lo num blog com um tráfego e uma audiência que interessa manter é perigoso.

E este blog vai ficar realmente com uma long tail, mas é uma cauda que nem é composta de penas, nem coberta de pelos, nem de escamas… é apenas um amontoado de detritos que traz um pouco de tudo ao blog, mas muito poucos visitantes estarão interessados no que tenhamos para vender.

Criar uma long tail é realmente importante. Mas é preciso que ela seja relacionada com a área do site ou do blog, que ela traga mais utilizadores interessados, e não tráfego apenas. É uma vez mais uma questão de se colocar a qualidade antes da quantidade.

Ou será que o importante é o contrário?


PpW – XSS nos CSSs

Published by:

Já vos falei neste site de XSS por duas vezes, mas ainda existe uma terceira opção, em que eu próprio não tinha pensado. Não é muito mau, uma vez que apenas funciona em sites que permitam alterar os CSSs ou introduzir tags <STYLE> nos campos, e é exploitable apenas em Internet Explorer…

Bem. Não deixei este post para depois porque me lembrei imediatamente de um grande site onde isto poderia ser utilizado de forma grandiosa. Não, não vou dizer qual é o site, mas trata-se de um site de social networking. De um dos maiores.

Mas voltemos um pouco atrás, aos detalhes.

O referido exploit utiliza a funcionalidade url(“url”) que pode ser utilizado em várias propriedades dos CSSs, nomeadamente backgroundbackground-imagelist-style-image, entre outros. Um pequeno teste para verificar a possibilidade de efectuar o exploit seria simplesmente:


<style>
li {
list-style-image: url("javascript:alert('XSS')");
}
</style>
<ul><li>Teste</li></ul>

Assim existe agora mais um forma de injectar javascript, sem conseguir adicionar tags de <script>.

Do ponto de vista da criação de sites aparece assim mais uma preocupação, que passa por verificar com cuidado em que consições se permite aos utilizadores alterar as CSSs dos sites, sendo isto especialmente relevante em sites de comunidades, em que cada utilizador pode costumizar o seu próprio perfil.

Aparentemente o exploit apresentado apenas funciona em Internet Explorer, mas é bastante recente, poderá funcionar noutros browsers.


Posts e Links

Published by:

Alguns bloggers, talvez por terem vários blogs, pouco tempo, e quererem adicionar conteúdo em todos os blogs acabam por em alguns deles adicionarem posts cujo único conteúdo é uma lista de links para posts de outros blogs.

Se por um lado para os seus leitores estes posts podem até ser importantes, no sentido em que os ajudam a encontrar os conteúdos mais relevantes em cada momento, por outro lado são pouco relevantes, especialmente para os leitores mais assíduos.

As pessoas realmente interessadas numa área vão guardando bookmarks para os sites que acham interessantes, e no caso dos utilizadores com agregadores de feeds além dos bookmarks vão adicionar o feed do blog ao agregador utilizado.

Se verificarem regularmente (diariamente ou mais frequentemente) os feeds que adicionam ao agregador vão acabar por receber as novidades linkadas nestes posts praticamente ao mesmo tempo que o blogger, que depois vai listar estas novidades num dos seus posts.

Este aspecto faz com que ao fim de algum tempo estes posts deixem de ser interessantes para serem apenas memórias de posts que já leram.

Por outro lado, para os restantes bloggers da mesma área estes posts são, na melhor das hipóteses proxies para os blogs que têm o conteúdo real. Muitas vezes, mesmo que o conteúdo tenha sido descoberto pelos links colocados nestes posts, os posts ou o blog não são sequer referidos.

Ok, dizem-me, estes posts são irrelevantes, mas não são prejudiciais. Não sei. Se por um lado adicionar posts regularmente pode fazer com que o site seja indexado mais regularmente pelos motores de pesquisa, por outro lado estes posts não têm nada de interessante para indexar, nada que os torne únicos no universo das páginas indexadas, pelo que na maioria das vezes não lhes será dada relevância especial.

Outro aspecto a considerar é que ao adicionar apenas este tipo de posts num blog corre-se o risco de perder utilizadores, que deixem de ter interesse nos links publicados.

Mas, então, não devemos criar links para outros blogs e outros posts? Sim, devemos. A Web depende disso. Não seria, aliás, uma teia sem estas ligações. Mas há outras formas de o fazer.

Ao invés de simplesmente listar todos os posts que considera relevantes, escolha aquele, ou aqueles, que ache realmente importantes e além de linkar para esses posts, inspire-se neles, diga o que pensa do exposto pelo autor, se concorda, com o que concorda e porquê, diga em que discorda dele e porquê.

Sim, isto demora mais tempo do que listar seis ou sete posts, mas o conteúdo gerado é também muito mais, e muito mais relevante.

Além disso, o post resultante é bastante mais linkável que uma lista de links, e é menos provável que os seus leitores percam o interesse, porque apesar de poderem já ter lido o post original, desta forma ficam a saber a sua opinião acerca desses posts.

Digam-me. Preferem encontrar em blogs links comentados ou listas de links, apenas com o título do post original?


Link para os outros

Published by:

Enquanto blogger ou webmaster vê frequentemente as estatísticas do seu blog/site? E já lhe aconteceu descobrir um blog porque ele aparecia na sua lista de referers?
A maioria dos bloggers são assim. Nos blogs com muito tráfego um link de um blog de pequena dimensão pode nem aparecer nos top referers, mas um link para um blog de média dimensão pode não passar despercebido.

E se o blogger para quem o seu link aponta fostar do seu blog pode ser que decida colocar um link de volta para o seu site, ou escrever um post sobre o seu blog.

Existem duas formas de linkar para os outros, e que têm implicações diferentes. Estas formas são os links no template e os links no conteúdo.

Links no template

Uma fas formas de linkar outros blogs (ou sites) é colocando um link no template do seu blog. Por link no template entenda qualquer link que apareça em todas as páginas, ou na maioria delas, independentemente da forma como é lá colocado.

O wordpress, por exemplo, tem no backoffice um interface para fazer a administração dos links, que são, normalmente, colocados na lateral do blog.

Estes são os links a que chamo links no template. Estes links têm significados diferentes consoante o titulo que os antecede, mas normalmente são blogs que o blogger lê, ou blogs que considera relacionados (ainda que normalmente não concorrentes) com o seu.

Links no conteúdo

Um link no conteúdo não tem implicações por si, pois normalmente o blogger explica por que razão está a linkar para o outro blog.

Estes links têm normalmente como consequência que os seus leitores visitem mais o link apresentado do que quando coloca o mesmo link no template, especialmente porque se encontra na parte do seu blog a que os seus leitores prestam mais atenção… os seus posts, aquilo que escreve.

Ao longo do tempo, claro, um link no template pode enviar muito mais utilizadores aos blogs para quem linka (ou de volta para o seu) do que um link no conteúdo, pois o seu post saí da homepage e passa a termenos tráfego, mas o link no template permanece.

No entanto, acredita-se que os motores de pesquisa começam já a dar mais relevância aos links no conteúdo do que aos links no template, e o caminho será cada vez mais esse.

Apenas relembrando

Aponte para os outros e seja descoberto por isso. Ao contrário do mundo real, na Web, apontar é natural, faz parte da natureza da Web.

Exponha as suas opiniões

Published by:

Dizer o que pensa pode ser uma optima forma de obter novas ideias.

Por um lado, o simples facto de se forçar a concretizar os seus pensamentos, de os exprimir de forma que os outros os consigam compreender ajuda-o a si próprio a compreendê-los melhor.

Por outro lado, apenas quando as outras sabem qual é a sua ideia ou opinião podem confronta-la com as deles, e dar-lhe feedback, dizer-lhe em que concordam, mas principalmente em que discordam de si (e, se tiver sorte, porque discordam).

Claro que nem todas as ideias precisam ser publicamente expostas. Não precisa de de tornar-se o Hunter (do filme Boys and Girls) a defender que devemos atirar os idosos aos lobos.

Por outro lado pode reservar aquelas ideias que acha que poderão dar bons negócios, ou que de alguma maneira poderá rentabiliza, para pessoas que sejam de confiança, pessoas em quem saiba que pode confiar, pessoas que saiba que não vão agarrar a sua ideia e implementá-la como se fosse própria.

E já agora, uma vez que expôs os seus pensamentos ou opiniões, e se até recebeu algum feedback, não se faça de Maria Ofendida e tente perceber se existe algo que possa aproveitar em cada uma das criticas que recebe, se são apenas pontos de vista diferentes, ou até se são ideias adicionais que podem ajudar a melhorar a sua.


Crie Drafts

Published by:

A inspiração não flui sempre com a mesma frequência e o mesmo se passa com o tempo que temos para dedicar aos blogs. Por isso é preciso aproveitar quando se juntam.

Se num dia se senta à frente do computador e publica de um só fôlego quatro ou cinco posts, é simultâneamente um despredicio e uma afronta.

É um despredicio porque muitos dos seus leitores, mesmo dos mais interessados, vai ler com atenção todos esses posts.

É, por outro lado, uma afronta aos seus leitores porque os obriga a escolher se vão ler tudo o que escreve ou não, quando se os seus posts fossem em menor quantidade iriam ler tudo. Mas mais do que isso. Se decidirem que não têm tempo para ler cinco ou seis posts seus, ainda vão ter que escolher quais ler… e pode bem ser que acabem por não ler nenhum, apenas para não ter que escolher.

Mas, então o que fazer com esse fluxo excessivo de inspiração? Primeiro escolha os artigos que são mais adequados ao momento presente, ou aqueles que perdem a oportunidade se não forem publicados já. Publique esses.

Em relação aos restantes, se o seu sistema de publicação lhe permitir guardar os posts sem os publicar, como rascunhos ou drafts, introduza-os já, revêja-os, mas não os publique ainda.

Se o software que utiliza não lhe permitir guardar os conteúdos sem os publicar, utilize o seu editor de texto preferido para escrever os conteúdos, e guarde-os de forma que facilmente os consiga recuperar e publicar.

Este processo tem duas vantagens.

Em primeiro lugar não inunda os seus leitores com demasiados conteúdos de uma só vez. Por outro lado naqueles dias em que não está inspirado ou tem pouco tempo consegue facilmente publicar um ou dois artigos, pois estão já preparados.

Assim, da próxima vez que combinar ir ao cinema já não precisa de chegar meia hora depois do combinado ou deixar de publicar o seu post habitual. Basta-lhe ir aos drafts que tem prontos para publicação e publicá-lo.