Um questionário para quem faz websites

I Took the 2008 Survey for People Who Make Websites, by A List ApartAcaba no próximo dia 26 o prazo para responder ao Inquérito promovido pelo webzine A List Apart que procura, todos os anos, recolher mais informação sobre as pessoas envolvidas na criação de websites.

Parte das perguntas reflecte um panorama profissional que não é o nosso (a distinção minuciosa de cargos e competências não é algo que faça parte do meu quotidiano) e mesmo considerando que o trabalho que ainda faço como web designer se vai reduzindo e não é a parte mais significativa dos meus planos para o futuro, achei importante participar, para que a amostra seja tão completa e representativa quanto possível.

Por isso, cá fica o aviso: se achar que também deve participar, lembre-se que só tem até ao dia 26 de Agosto.

PageRank: é tão simples!

Li, com interesse, um post recente no AirDiogo acerca do PageRank, o sistema através do qual o Google organiza os resultados das pesquisas em função da relevância atribuída ao conteúdo da página ou site. A reflexão sobre a popularidade deste assunto e sobre as diferentes posturas de SEO – Search Engine Optimization que vão desde a explicação séria e simples dos parâmetros envolvidos até às lógicas obscurantistas e promessas milagoras, típicas de vendedores de banha da cobra é, parece-me, uma outra forma de atrair visitantes ao blog, aproveitando a onda gigantesca de pesquisas. No caso dele, como no meu, agora, ao escrever este post ou quando escrevi este outro, mais obsceno, ou na experiência recente do Nuno Saraiva, usando a orientação sexual da Brandie Carlile como chamariz de visitas, percebe-se que há um critério simples, superficial e fácil de manipular no sistema: se usarmos frases, palavras ou expressões muito populares e, especialmente, se lhes dermos valor semântico (num título é melhor que no corpo do artigo) e as repetirmos em vários contextos (as tags e índices são óptimas estratégias), podemos trepar a escala da relevância com facilidade. Mas é fácil de perceber que esta estratégia se usada de forma “maliciosa” gera visitas “enganadas”, o que não contribui nem para a reputação nem para a relevância global do site em causa. O artigo mais popular desde blog, por exemplo, chama-se “Pornografia, ou a arte de ser explícito“, mas duvido seriamente que as intenções duma parte significativa dos visitantes fosse ler a minha reflexão acerca das práticas de distribuição de publicidade no site do Correio da Manhã.

Mas, se percebermos este primeiro princípio, percebemos, de facto, que o segredo da relevância— por isso, o segredo do PageRank ou o segredo do SEO – Search Engine Optimization— é escrever de forma organizada e sistemática, com cuidados ao nível da marcação semântica dos conteúdos. Ou seja, é preciso cuidar dos conteúdos e pensar, pesquisar e analisar quais os termos e expressões de pesquisa mais usados pelos internautas que fazem parte do nosso público-alvo. E isso é simples, certo?

Um blog, um portal generalista ou outras experiências cujo único objectivo seja gerar visitas, sem preocupações de fidelizar públicos-leitores, pode dar-se ao luxo de seguir a onda dos acontecimentos, alternando entre referências aos últimos gadgets (o iPhone e o iPod são boas opções), escândalos sexuais, económicos ou políticos, fait-divers de vários tipos, ou alimentar as eternas flamewars de sistemas operativos (Windows vs. Mac vs. Linux) ou consolas de jogos (Playstation vs. Xbox vs. Wii), por exemplo. Esse comportamento gera visitas e aumenta a relevância / PageRank artigo-a-artigo, mas a inconsistência dum site que segue simplesmente hypes sucessivos, sofre com isso. Porquê? Porque se fosse apenas um problema de quantidade de keywords, não se justificava a investigação, o segredo ou até o registo de patentes à volta do “coração” do Google. Por um lado, referências avulsas a termos “populares” não chegam para enganar o sistema, já que todo o conteúdo é visado e são cruzadas referências para perceber se o artigo é ou não “genuíno”. É também aí que entra a importância da construção de links para o conteúdo. O número de sites que refere o nosso conteúdo, através dum link, é mais um sistema de validação da relevância dos conteúdos. E isso também é fácil de perceber: se eu for uma “autoridade” numa determinada área é natural que muitos sites dedicados ao mesmo assunto, ou artigos avulsos, se refiram e liguem a mim. E essa é uma medida socialmente aceitável, mesmo no mundo real do ensino, por exemplo. (Uso o termo “autoridade”, numa piscadela de olho ao sistema de Authority que o Technorati usa). Cá está outro parâmetro base de relevância: links dirigidos aos nosso conteúdo “provam” que ele é relevante. (Claro que as “roletas” de troca de links sugeridas por alguns “especialistas” e que ligam ad nauseam sites igualmente irrelevantes são identificados pelo sistema e pelos utilizadores, também. Isso e outras práticas semelhantes a vudu.) ;)

Mas, além disso, se o PageRank de cada página dum mesmo site for alto, mas responder a termos de pesquisa demasiado diversificados, não é possível determinar a relevância global do site, porque não existe um contexto temático em que ele se encaixe. Os links podem ajudar, mas não resolvem o problema de base. Por isso é que se fala muito da necessidade de “especialização”. Há até quem sugira que a melhor forma de garantir uma grande visibilidade é encontrar um “nicho” e explorá-lo até ao tutano garantindo que, à medida que o interesse cresce (e o interesse sobre qualquer coisa na Internet cresce sempre, é um problema básico de entropia), nos mantemos no topo da vaga.

Este é o tipo de coisas que os especialistas de SEO – Search Engine Optimization vão dizendo e vendendo, mas se um projecto estiver limitado tematicamente (que é o caso de quase todos os sites de empresas e organizações), não faz sentido falar de determinado tipo de manipulação de conteúdos ou da auscultação constante dos hypes gerais. Para um site “normal”, com objectivos pré-determinados e um posicionamento marginal às modas e tendências da web, o trabalho é, paradoxalmente, muito mais simples. Como é óbvio que a relevância absoluta do site será sempre condicionada pela popularidade do tema— uma sex-shop on-line não tem que trabalhar quase nada para garantir valores altos de relevância, enquanto um clube de leitura ou uma carpintaria terão que se contentar com um tecto baixo definido pelos hábitos de utilização e pela baixa densidade do “meio” específico onde estão—, o trabalho deve concentrar-se apenas na apresentação fluída e bem estruturada dos conteúdos e na adequação da escrita ao meio e aos hábitos (percebidos) dos internautas. Não é pouco trabalho, mas é simples:

  • escrever bem, sem ser nem prolixo nem telegráfico
  • identificar as palavras, expressões e frases em uso no “meio” e usá-las em quantidade, mas com critério, um pouco por todo o site (uma boa forma de fazer isto é usar os simuladores do Google AdWords que, a partir de uma expressão, nos dão as alternativas mais procuradas)
  • perceber que ninguém lê tudo, pelo que o que nos pode parecer redundante quando estamos a criar e/ou a rever conteúdos, pode ser perfeitamente aceitável para leituras na diagonal
  • usar as palavras e frases chave em títulos e sub-títulos, correctamente marcados semanticamente (<h1>, <h2>, etc)
  • não substituir por imagens conteúdo fundamental, a não ser que se usem criteriosamente as possibilidades de legendagem (tags alt e title) e/ou se adoptem técnicas de Image Replacement inteligentes
  • procurar os melhores locais on-line para se ser referenciado e tentar perceber como é que isso é possível (publicidade, troca de links, simples contacto?)

Não é magia, nem milagre ou prática mística, mas funciona. Sendo assim, porque é que se continua a falar destas coisas e há uma tão grande procura por estes assuntos? Porque as pessoas, empresas e organizações são preguiçosas e querem, no fundo, no fundo, descobrir a cura milagrosa que ponha o seu site no top dos tops, sem terem o trabalho de criarem, sistematizarem e organizarem conteúdos. Para os “preguiçosos” que podem, existe o Google AdWords, que, para quem puder pagar, permite colocar links patrocinados nas primeiras páginas de todas as pesquisas. Para os outros, é trabalho simples. Mais ou menos trabalho, mas simples e relativamente transparente. E o resultado final não é o mesmo: com o trabalho feito, o site aparecerá por mérito próprio e sem custos. Pela via imediata, o site só vai aparecer enquanto pagarmos e a eficácia provavelmente decresce com o tempo (um link patrocinado que não chega pelo próprio mérito às páginas principais causa desconfiança nos utilizadores).

E, com este artigo escrito, revejo e posso prever que, com tantas referências a hypes, ao Google e ao PageRank, a estratégias de SEO, a gadgets e a outros termos de pesquisa populares, vou ter outro pico de visitas. Justifica-se?

Imagino que não seja complicado

“Eu não percebo nada disso, mas imagino que não seja complicado. É?”

Com cada vez mais frequência sou confrontado com este paradoxo: com a “democratização” das tecnologias e com a disseminação da ideia (absurda) de que dos computadores se tira o trabalho já feito, são cada vez mais as pessoas que, sem terem a menor ideia das competências necessárias, tarefas envolvidas ou tempo dispendido em alguns dos trabalhos que desenvolvo, requerem, em cima do prazo final de entrega dos trabalhos, actualizações, rectificações, modificações, revisões e outras tarefas que têm o seu tempo próprio no processo. E é comum dizerem mesmo coisas deste tipo: “não faço a mínima ideia como é que isso se faz, mas não deve ser assim tão complicado substituir isto, ou acrescentar aquilo ou…”

Mas não é bem assim, senhores. Se não fazem a menor ideia como se faz, é possível, e até provável, que aquilo que vos parece perfeitamente banal, mas que vos foi dito que teria um tempo próprio, seja de facto bastante complicado fora desse tempo.

Ah! É importante que se esclareça que neste “estabelecimento” o cliente não tem sempre razão. Aliás, é raro isso acontecer.

Desculpem o desabafo, mas são 5 da manhã e estou a acabar um desses projectos fora de tempo. Porquê? Porque, apesar de tudo, o trabalho é mesmo “a porca chantagem da sobrevivência”.

De pequenino se torce o pepino

Uma das mais eficazes (e desprezíveis) formas de fomentar o uso de aplicações e linguagens proprietárias e viciar o mercado e o contexto de produção informática é apostar no mercado da educação, com campanhas que, efectivamente, perpetuam e reforçam o ciclo vicioso da aparente falta de alternativas. Várias empresas de software usam estas estratégias: empresas como a Microsoft ou a Autodesk (os exemplos que conheço mais de perto) incentivam a utilização das suas ferramentas no contexto académico, apostam fortemente no circuito da formação financiada e tentam manter relações privilegiadas com o sector, promovendo acções de marketing mais ou menos disfarçadas de formação dirigidas a alunos, professores e demais responsáveis pela selecção de ferramentas a utilizar nas salas de aulas.

Já diz o povo, e com razão, que “de pequenino é que se torce o pepino“, e os efeitos destas acções são evidentes: o percurso formativo em variadíssimas áreas que necessitam de apoios tecnológicos são fortemente marcados por uma única aplicação ou suite. E a emergência de “pseudo” standards, a que algumas pessoas chamam os “standards de mercado”, mesmo que o seu crescimento resulte da manipulação do próprio mercado, é um exemplo claro de como esta é uma estratégia ganhadora para as empresas beneficiárias e altamente prejudicial para a sociedade.

Não me interessam lutas quixotescas contra a Microsoft, que é o exemplo mais completo desta forma de actuar, porque me incomoda (quase) tanto a sua hegemonia na área do “escritório e produtividade”, como me incomoda a hegemonia da Autodesk na arquitectura, engenharia e construção, ou da Adobe nas artes gráficas e multimédia ou mesmo da Apple em certas áreas do áudio e vídeo e como plataforma de hardware nas artes gráficas, ainda que quase não se sinta em Portugal.

As hegemonias, todas, incomodam-me porque resultam num encurtar de perspectivas para os utilizadores e, por esse facto, numa limitação da sua liberdade. É um processo no qual cada indivíduo participa, é certo. E, por isso mesmo, o caminho percorrido durante os períodos iniciais de formação, pelo menos esse, deveria ser marcado pela promoção e exploração de alternativas e deveria ser feita a distinção clara entre os tais “standards de mercado”, circunstanciais, e os standards de facto, dando especial atenção a questões como a interoperabilidade das soluções adoptadas. Esquecer a interoperabilidade é, acima de tudo, viciar as “regras do jogo” e prender os utilizadores numa espécie de “jaula invisível”.

Vem esta reflexão a propósito dum concurso que a Microsoft está a promover, em conjunto com a DGIDC (Direcção Geral da Inovação e Desenvolvimento Curricular do Ministério da Educação),  dirigido a estudantes do 2º e 3º ciclos do Ensino Básico e do Ensino Secundário, que premiará sites sobre Segurança na Internet, mas onde se privilegiará a utilização de ferramentas da Microsoft, numa jogada claramente denunciada pelo Rui Seabra.

O concurso promove não só a utilização de software proprietário, como contribui para a relativização da importância dos web standards e isso deveria ser razão mais do que suficiente para que os responsáveis públicos da DGIDC/eCRIE se manterem ao largo. Até porque os termos do concurso contrariam a estratégia positiva de promoção de soluções baseadas em Software Livre , como o Moodle e o Joomla, que, além de serem open source e gratuitas, estão envolvidos na promoção de standards reais e não levantam problemas de interoperabilidade.

Discutir e denunciar as condições de promoção deste concurso são tarefas que nos cabem a todos e espero que a Associação Ensino Livre possa vir a participar também nesta denúncia.

Profissional? Eu?

A convite do Dr. Nelson Lopes, psicólogo no Gabinete de Apoio ao Jovem da Câmara Municipal de Aveiro, participei num Painel de Profissionais, com a missão de partilhar com alunos do 12º ano da Escola Secundária Jaime Magalhães Lima, alguma da minha experiência na qualidade de web designer. Todas as minhas reservas— não ter um percurso de formação minimamente regular, ser demasiado jovem e inexperiente para poder dar uma visão completa de qualquer exercício profissional e ser excessivamente disperso na minha actividade para me poder assumir como profissional seja de que área for— foram sendo rebatidas pelo Nelson Lopes, a quem a ideia de trazer um “agente provocador” ao painel, parecia agradar.

Participei, por isso, nessa qualidade e, apesar do cansaço (o painel foi de manhã e tinha tido filme-concerto do Space Ensemble em Barcelos na noite anterior), acho que não se perdeu tudo e ninguém ficou demasiado melindrado (espero) com a minha presença.

Comecei, destacando a velocidade vertiginosa a que a web, enquanto suporte, se desenvolve e modifica e, por isso, a necessidade imperiosa de, quem se interessar por ela, não se afeiçoar demasiado a ferramentas, linguagens ou procedimentos específicos e, necessariamente circunstanciais, e investir numa formação flexível, centrada no “aprender a aprender” e no “aprender a pensar“, muito mais “estáveis” e úteis a médio e longo prazo do que o “aprender a fazer“. Partilhei também a parte mais “dramática” do meu percurso escolar (uma prolongadíssima desistência do curso de arquitectura) e aconselhei, nos limites do que me é permitido, a não ter medo de mudar de sonhos e vontades e, acima de tudo, fugir das armadilhas das expectativas externas (ou da percepção que temos delas) e quebrar este ciclo vicioso de prolongar os percursos formativos ad nauseam, sem convicções.

Não se metam num curso superior qualquer só porque é o que se espera que façam ou, pior, porque é aquele em que conseguem entrar. O curso não pode ser um fim em si mesmo.

Não sei se o disse com esta convicção, mas tentei.

Para ilustrar a questão da velocidade, usei uma citação do Boris Vian, tirada de “Os Construtores de Impérios“:

Corremos com toda a força para o futuro e vamos tão depressa que o presente nos escapa e a poeira da nossa corrida nos esconde o passado.

Timeline of major browser releases, Wikipediae, para dar um aspecto mais “técnico”, mostrei-lhes esta timeline dos lançamentos dos principais browsers, que pode ser vista em detalhe na Wikipedia.

Para quem nasceu à volta de 1990, este ritmo de desenvolvimento, a par das datas de lançamento dos principais serviços web que fazem parte do nosso quotidiano— Amazon, 1994; Yahoo e Sapo, 1995; hi5, 1996; Google, 1997, MSN, Blogger e RSS, 1999; Wikipedia, 2001, Last.fm, 2002; Skype e MySpace, 2003, YouTube, 2005— deve fazer pensar 2 vezes todos aqueles que aspiram a um futuro sossegado (que espero que sejam sempre cada vez menos).

Datas de lançamento de serviços web emblemáticos

O tempo não era muito (15 minutos para a apresentação) e não consegui fazer nada de tão rigoroso ou completo como gostaria. Até porque não podia evitar a “provocação” final que, infelizmente, não tivemos tempo para debater, nem com os alunos, nem com os professores, nem com os restantes profissionais presentes: o matemático Manuel Scotto, o engenheiro electrotécnico/telecomunicações José Carlos Pedro, o engenheiro civil João Paulo Tavares (CMA) e o professor de educação física / empresário Ricardo Silva.

Quem sabe se a podemos debater aqui no blog? Cá vai:

O trabalho é a porca chantagem da sobrevivência.
Movimento Situacionista

Substância

É cada vez mais evidente que o ciclo de desenvolvimento “técnico” de um website foi encurtado significativamente, ao ponto de ser possível, com um CMS competente e uma certa ginástica no desenvolvimento de templates, pôr um projecto online em alguns dias, ou mesmo horas, dependendo do fôlego, do número de colaboradores, da exigência gráfica, dos conteúdos.

Mas o ritmo acelerado a que se resolve o esqueleto e a pele superficial destas coisas, deixa cada vez mais evidente a progressiva ausência de substância: é cada vez mais comum ter projectos “pendurados”, à espera de conteúdos, ter clientes que querem um site mas que não fazem ideia do que ele irá conter, encontrar organizações que não são capazes de produzir nenhum tipo de discurso acerca de si próprias…

Corremos com toda a força para o futuro e vamos tão depressa que o presente nos escapa e a poeira da nossa corrida nos esconde o passado.
Boris Vian, Os Construtores de Impérios

E nem sequer sei (desconfio muito) se é só no caso da comunicação digital que vamos adoptando cada vez mais esta lógica de fazer “coisas” desenfreadamente, sem nos determos no que é verdadeiramente fundamental. Ou sem sequer percebermos o que é necessário.

Recognizing the need is the primary condition for design.
Charles Eames

Tipografia para Web Designers

Em tempos que já lá vão, escrevi aqui acerca do brilhante I Love Typography, mas não tenho conseguido ser um leitor assíduo e, de cada vez que me dedico a ler os artigos ou simplesmente seguir algumas das sugestões apresentadas, fico sempre “maravilhado”. Mas agora, o iLT avançou com um primeiro capítulo dum Guia de Tipografia para a Web e isso é um acontecimento a destacar. É claro que esta não é a primeira iniciativa do género e há alguns recursos online e offline dedicados a estas questões de forma mais aprofundada, mas a leitura do iLT é muitíssimo agradável e, também a partir dos comentários, abre imensas portas. The Elements of Typographic Style Applied to the Web é um exemplo dum outro recurso mais aprofundado, também work-in-progress, a que acedi a partir dos comentários no iLT. O que prova que ter uma comunidade de leitores interessados e interessantes é uma enorme mais-valia.

Mas o mais relevante neste dois sites é a capacidade que têm de provar a relevância do conteúdo pelo exemplo. Ora reparem:

I Love Typography: aconselhável pelo conteúdo, pela forma e pelo exemplo

The Elements of Typographic Style Applied to the Web: um recurso em construção e um exemplo de como fazer

Se alguém precisa de exemplos que ilustrem a necessidade de dominar conceitos de tipografia para comunicar bem online, eles aqui estão, não é?

E pegando numa curtíssima referência do iLT:

Robert Bringhurst, the consummate typographer writes, typography exists to honor content. Are we honoring the content, if we design our pages in such a way that the text, the content, is difficult to read? 

Precisa dum inquérito online? LimeSurvey, sem dúvida!

 

LimeSurvey: uma aplicação open-source para a construção de questionários on-line extraordinária

Não é propriamente uma necessidade quotidiana, mas já por várias vezes fui abordado para dar conselhos ou apoiar a construção de vários tipos de inquéritos ou questionários on-line e, pela quantidade de vezes que sou solicitado para responder a alguns, parece-me que são ferramentas para levar a sério.

Entre outras coisas, porque um questionário online bem construído pode ser uma poderosa ferramenta de análise de mercado, uma boa base para um estudo de opinião ou um simples indicador estatístico, com uma população alvo vasta e custos de implementação substancialmente reduzidos.

Ser bem construído significa, por exemplo, ter possibilidades de gerar convites, validar respostas, permitir interrupções no preenchimento guardando o que já se fez, criar percursos condicionais, ordenar aleatoriamente hipóteses de resposta-múltipla para evitar distorções, exportar os dados em formatos fáceis de analisar em ferramentas específicas de estatística… e muitas coisas mais que vou aprendendo à medida que acompanho o trabalho de quem pensa nestes assuntos.

O meu companheiro nestes contextos é o LimeSurvey que não cansa de me surpreender por ser tão completo, tão bem pensado e implementado, tão equilibrado em termos de facilidade de utilização e flexibilidade. De tal forma parece ter tudo, estar preparado para tudo e permitir tudo que hoje perdemos algum tempo por presumirmos que teria uma função que, de facto, não tem: gerar ou seleccionar perguntas aleatoriamente de um conjunto pré-determinado. Pelo menos, não duma forma que permita guardar simultaneamente a pergunta e a resposta.
Para que tipo de questionário é que isso é útil seria difícil de explicar, neste momento, mas a verdade é que, sendo uma funcionalidade que eles reconhecem que poderá vir a ser implementada no futuro, para já, não existe.
E, provavelmente, não existe out-of-the-box na esmagadora maioria das aplicações do género, mas confiava de tal forma na aplicação que presumi que seriam favas contadas.

Ainda assim, a verdade é que, depois de perceber e aceitar que a solução mais elegante não estava disponível, encontrei um “dispositivo” que serve os propósitos do inquérito, não estraga nada e permite recolher a informação tal e qual se pretendia: um grupo de perguntas de controlo, com elementos aleatórios gerados por JavaScript e condições resultantes dessas respostas a determinar o passo seguinte, acrescenta uns cliques, mas resolve o problema.

Depois de “dobrar este cabo”, não tenho receio nenhum em recomendar vivamente o LimeSurvey a quem quer que precise de criar e/ou manter um questionário on-line para as mais variadas funções. Aliás, era óptimo se muitos questionários que recebo na caixa de correio fossem feitos por recurso a uma ferramenta deste tipo: as vantagens para quem responde são tão grandes como as para quem desenvolve.

Para mim, é um achado!

Virar o bico ao prego

No meio das confusões criadas pela evolução soluçante dos browsers (principalmente o IE) na sua relação com os standards é, de facto, desesperante ver a frequência com que os sites deixam de funcionar correctamente. A malha complexa de acertos, contra-acertos, desvios e hacks que se vão fazendo e desfazendo para adaptar o código dos sites aos humores de versões sucessivas que ora se aproximam ora se afastam da definição dos standards, fez-nos chegar a um ponto em que qualquer movimento obriga a intensos exercícios de reescrita.

A pensar nisso, aparentemente, apresenta-se agora uma nova abordagem à evolução de standards e browsers que é pouco mais do que virar o bico ao prego: a partir do IE8, propõe-se que abandonemos a estratégia do browser sniffing, em que o programador escreve variantes do código para diferentes browsers, versões e plataformas, servidas em função da sua (difícil e, por vezes, ineficaz) detecção, para deixarmos que sejam os novos browsers a detectarem a(s) versão(ões) testada(s) na fase de desenvolvimento para adaptarem o render da página de acordo com a intenção primária do programador.

A mudança sugerida é radical e difícil de digerir. Acompanhei com gosto a reflexão do Eric Meyer a esse respeito e dou por mim a pensar que o maior risco que se corre quando se vira o bico ao prego é não saber exactamente quem é que está a segurar o martelo.

Essa é uma questão que é abordada ao de leve nesta última edição da A List Apart, mas não fica muito clara nos artigos quer do Aaron Gustafson, quer do Eric Meyer, mas usando as palavras deste último:

For one thing, “browser sniffing” at present means “writing code to check what browser is being used and make adjustments to the markup/CSS/JS/server response/whatever accordingly.” Version targeting reverses that completely, making it “the browser checking the page to see when it was developed and making adjustments to its behavior accordingly.” In other words, version targeting frees web developers from sniffing and places the onus on browser developers instead.
[isto é virar o bico ao prego]

That’s not a change to be lightly dismissed. Browser implementors, for all they frustrate us with (often justified) pleas of limited resources, still command far more resources and expertise in regression testing than any of us can muster. Furthermore, browser developers have a far more vested interest in making sure the version targeting works as promised and doesn’t break old sites than site authors do in updating their old sites to work in new browsers. [isto é reconhecer que quem segura o martelo é o outro e ter fé que ao outro não lhe interessa acertar-nos nos dedos]

(…)
Besides which, we’ve written enough scripts and hacks to make our pages adjust to browsers. Isn’t it about time browsers started adjusting to our pages? [isto é reconhecer que se está cansado]

(…)
The biggest concern is fidelity. Will the backwards-compatible code for IE8 always act exactly like IE8 did, or will there be subtle changes that still break old sites? Might there even be, dare we mention it, new bugs that affect the backwards compatibility of future browsers? After all, the door swings both ways: vendors might get lax about their backward-looking code just as developers might get lax about their forward-looking code. Talk about irony. [isto é reconhecer que pode continuar a correr muito mal]

Joomla! 1.5

Joomla! 1.5 anunciado

Depois de um (longo) período de desenvolvimento e testes, a versão 1.5 do Sistema de Gestão de Conteúdos (CMS) Joomla! chegou à condição de estável e está pronto para produção.

As alterações que justificam o salto da versão 1.0.x para uma versão 1.5 são bastantes e uma primeira observação e testes convenceram-me a adoptar desde já esta nova versão para novos projectos. Quanto à migração de alguns projectos antigos… isso é outra história. Havendo tempo, lá se chegará.

Para já, destaca-se a limpeza do novo código produzido, a maior preocupação com standards e acessibilidade e algumas simplificações importantes no backend. E o funcionamento de elementares estratégias de SEO e SEF na configuração padrão, claro.

Com esta evolução, o Joomla! mantém-se como a minha “escolha acertada” para o desenvolvimento rápido de sites que necessitam de mecanismos de gestão de conteúdos (que, por mim, seriam todos).

E continuo maravilhado com a superioridade que esta solução open source continua a demonstrar em qualquer comparativo com várias plataformas CMS comerciais, algumas delas muitíssimo caras.