Biométricos Rua (última semana)

Esta é a última semana para experimentar a 1ª parte da 44ª criação do Visões Úteis: Biométricos Rua.

Até ao dia 1 de junho, o público pode dirigir-se ao Espaço Montepio, na Avenida dos Aliados, e requisitar um smartphone que contém a aplicação “Biométricos Rua”. Cada espetador é então desafiado a escolher um percurso para ligar um conjunto de Estações obrigatórias, espalhadas pelo centro do Porto. Para concluir o desafio, deverá validar os códigos QR Biométricos que aí encontrará. O percurso é monitorizado por GPS e condiciona a banda sonora ouvida a cada momento.

Existem pontos extra que podem ser obtidos validando códigos específicos nos locais assinalados no mapa: Pontos de Esforço, em trechos que implicam especial esforço físico ou desvios ao percurso mais direto, e Pontos de Calma, onde a localização dos códigos é obtida mediante especial atenção às indicações fornecidas na banda sonora.

Se concluir o desafio, o espetador poderá inscrever o resultado da sua performance num ranking onde o tempo de realização do percurso e o total de pontos recolhidos determinarão a sua posição.

Não há um percurso lógico, não há uma velocidade certa. É o espetador que escolhe o caminho e o grau de esforço físico que quer dedicar ao desafio.

Biométricos Rua – 17 de maio a 1 de junho / Espaço Montepio
Avenida dos Aliados nº90, das 11h às 17h (horário da última saída)

Coprodução: Visões Úteis / Fundação de Serralves; Apoio Financeiro: Porto Lazer

  • Direção: Ana Vitorino, Carlos Costa e João Martins
  • Cocriação: Inês de Carvalho
  • Leitura Vídeo: Alexandre Martins
  • Imagem: João Martins / entropiadesign
  • Coordenação de Produção: Marina Freitas

Biométricos Rua

  • Concepção e interface da aplicação, banda sonora original e sonoplastia: João Martins
  • Programação: Óscar Rodrigues (Digitópia/Casa da Música)
  • Textos: Ana Vitorino, Carlos Costa e João Martins e entrevistas com Alexandre Viegas, António Fonseca, Conceição Martins, Ester Alves e Isabel do Carmo
  • Interpretação: Ana Vitorino, Carlos Costa, Inês de Carvalho, João Martins, José Carlos Gomes e Marina Freitas e ainda Alexandre Viegas, António Fonseca, Conceição Martins, Ester Alves e Isabel do Carmo

Com citações de Alberta Lemos, Carlos Sá, Filippo Tommaso Marinetti, Hugo Ball, La Fontaine por Curvo Semedo e Marion Bartoli. A banda sonora inclui registos de ensaio do NEFUP, de situações em contexto de trabalho e desporto, e um excerto da transmissão de uma partida de ténis entre Michelle Brito e Maria Sharapova.

 

Requisitos para trabalhar com ferramentas Open Source

Quando se apresentam as vantagens teóricas e práticas das ferramentas informáticas Open Source é raro falar-se em profundidade dos requisitos que estas apresentam, ao contrário do que acontece na maior parte das vezes que se discutem ferramentas proprietárias. É natural que assim seja: como estas ferramentas são abertas e livres, não existe, de facto, uma lista de “exigências” e (in)compatibilidades, como acontece muitas vezes com as ferramentas proprietárias, que as apresentam, muitas vezes, apenas por interesses comerciais e sem nenhum fundamento técnico. A diversidade de distribuições de algumas destas ferramentas, disponíveis para variadíssimos “sabores” de Linux, mas também para Windows e Mac OS X, com bastante frequência, tornam ainda mais complicado falar de “requisitos” e promovem a ideia de que todas elas funcionam igualmente bem em qualquer ambiente. Numa primeira abordagem e para uma utilização pacata, suspeito que isso corresponda à verdade e essa é mais uma das razões para que não se levante frequentemente este problema dos “requisitos”, mas se nos debruçarmos mais a sério sobre estas ferramentas e se fizermos uma utilização intensiva, comparando-as com as concorrentes comerciais, começamo-nos a deparar com dificuldades estranhas e muitas vezes pouco documentadas. Especialmente se, como eu, adoptarmos várias ferramentas open source, mas não formos rigorosos militantes do modelo FLOSS— ou seja, não só mantenho como sistema operativo o Mac OS X, como preciso de ver a vantagem técnica das soluções open source, já que as morais, que não menosprezo, em momentos de crise podem não ser suficientes para não me impedir de fazer o meu trabalho.

O dia de hoje— como todos os momentos cruciais de finalização e entrega de trabalhos de design de alguma dimensão desde que comecei a usar intensivamente o GIMP, o Inkscape e o Scribus— voltou a fazer-me pensar, dolorosamente, nesta questão. Sendo, teoricamente, ferramentas muitíssimo potentes e perfeitamente capazes de realizar as mesmas tarefas que as mais avançadas soluções comerciais e tendo eu a experiência de assistir à demonstração disso mesmo ou fazer essas demonstrações eu próprio, a verdade é que, em velocidade de cruzeiro, na configuração que eu tenho neste momento, a performance é dolorosa.

Os problemas maiores que me afligem dividem-se em 3 grandes áreas:

  • Gestão de memória: quando trabalho com ficheiros grandes (imagens raster de grandes dimensões no GIMP, ficheiros com muitos objectos ou geometrias complexas no Inkscape, documentos de grande dimensão no Scribus…) operações relativamente simples demoram imenso tempo, recordando os processos de edição digital de há 10 anos atrás. Em determinados períodos isso não é mau; dá-nos tempo para pensar, ajuda a gerir as pausa, etc. Mas numa fase final de produção de elementos para impressão, em contra-relógio, é exasperante. E se fosse para ter a performance de há 10 anos atrás, não se justificava ter máquinas recentes, com processadores recentes e memória adequada.
  • Instabilidade: na altura da verdade, tenho sido presenteado com freezes e crashes como nunca tinha visto (eu nunca usei Windows para trabalho). E, se no GIMP a instabilidade parece estar directamente relacionada com o problema da gestão de memória, já que só se nota com ficheiros de grandes dimensões (apesar de haver um ou outro filtro ou extensão pouco recomendável, também pelos imensos ficheiros que gera, mesmo que temporariamente), quer no Inkscape, quer no Scribus, chego a pensar que a condição necessária e suficiente para ter um freeze ou um crash é estar a trabalhar em algo de que precise durante algum tempo. Bem sei que tem que haver um padrão e já identifiquei algumas operações “sensíveis” nas duas aplicações, como agrupar e desagrupar grandes quantidades de objectos, aplicar máscaras e clipping paths no Inkscape, tentar abrir a janela de impressão no Inkscape, manipular elementos vectoriais importados no Scribus, obrigar o Scribus a muitos redraws, através de zooms e pans… Mas a instabilidade das aplicações, para quem vem dum universo Macintosh, é um pesadelo kafkiano e em momentos críticos, crashes a cada 5 minutos, como tenho tido quando estou a finalizar a composição de MUPIs, por exemplo, faz perder qualquer esperança no benefício kármico de usar software livre.
  • Compatibilidade: este problema não é tão grave como os outros do ponto de vista de performance, uma vez que é algo a que já estamos habituados nas soluções comerciais, mas é estranho que os SVGs do Inkscape, por exemplo, tenham alguma dificuldade de importação no Scribus se usarem algumas funcionalidades, como máscaras, clipping paths ou transparências e que, mesmo que não tenham essas características, percam referências de dimensão e cheguem fora de formato ao Scribus. Via EPS ou PDF damos a volta a esta questão, mas é estranho. Como é estranho que o Scribus importe ficheiros .PSD, formato proprietário do Photoshop, mas não .XCF, formato nativo do GIMP. Ou que seja preciso recorrer ao Scribus para ter uma imagem em quadricromia feita no GIMP. Ou…

O facto destas questões (algumas delas, pelo menos) não serem abordadas como assuntos sérios nas comunidades de utilizadores e dada a diversidade e exigências de uso a que elas têm sido submetidas, levam-me a depreender que, apesar de “funcionarem” em muitos ambientes, não “correm” em todos. Diz-me um colega de profissão que no seu MacBook, nota uma considerável diferença de performance nestas aplicações entre as versões em Mac OS X e versões a correr em Linux (Ubuntu):

É que não há comparação. Eu agora instalei o Ubuntu no meu MacBook Pro e, comparando com o OSX, as apps gráficas livres correm que é um doce. Compensa o incómodo de ter um dual-boot.

Além de que estás sempre com as versões mais actuais — as ports para OSX demoram sempre um pouco a sair. E têm sempre bugs específicos, que é o que te deve estar a afligir (e que eu também testemunhei).

Diz quem sabe.

Eu vou fazer o teste possível, mas fico a pensar até que ponto este é um problema real da comunidade open source:

  • Será que a difusão da ideia de que as ferramentas livres e abertas funcionam em todos os ambientes e o voluntarismo com que alguns programadores “martelam” o código necessário para que tudo funcione em todo o lado não criam experiências negativas (ou menos positivas) em quem está a ponderar a mudança?
  • Não seria útil gerir melhor as expectativas dos utilizadores (especialmente dos utilizadores mais exigentes, que estejam num percurso de migração, vindo de ambientes proprietários / comerciais), clarificando os requisitos técnicos de cada aplicação e dando exemplos de setups testados para performance e estabilidade?
  • Será assim tão perigoso para a difusão do software livre a declaração de exigências mínimas para aplicações específicas e a constatação de que existem diferenças entre “funcionar” e ser útil e produtivo num ambiente real?
  • Que impacto teria no ecossistema fragmentado dos sabores Linux a declaração, por parte dos principais programadores de cada aplicação, das combinações de hardware e sistema operativo ideais e/ou realmente testados?
  • Como se poderia implementar um sistema de testes das diversas distribuições de cada aplicação em cada ambiente que fosse verdadeiramente fiável? A sensação que se tem é que, em muitos casos, as distribuições Mac OS X foram testadas com uma instalação e um par de cliques por parte de quem 1) não usaria a aplicação profissionalmente e/ou 2) não tem grande experiência de utilização de computadores Macintosh.

Vamos lá a alguns testes, então…

Panorâmicas

Não sei porquê, mas sempre tive um “fraquinho” por imagens “panorâmicas”. Parece que sou sempre mais atraído por imagens de realidades que não se conseguem captar com um único olhar. Realidades que exigem um movimento associado ao olhar, seja horizontal, na paisagem, seja vertical, em alguma arquitectura. Como esta vista panorâmica do Rempart de La Charité-sur-Loire:

La Charité-sur-Loire, Panorama do Rempart

Esta imagem corresponde à montagem destas 6 fotografias:

DSC02202DSC02203DSC02204
DSC02205
DSC02206DSC02207

E a ferramenta usada para fazer a operação de “stitching” é open-source, gratuita e multi-plataforma. Chama-se Hugin e, apesar de não ser elementar na utilização, não é preciso ser-se um especialista para criar montagens decentes, com auto-detecção de pontos-chave, várias formas de correcção da perspectiva e projecção e boas capacidades de mistura (blending). A montagem que vêem, aqui, é uma projecção “trans-mercator”, usando auto-detecção dos pontos chave, com o plugin Autopano-SIFT-C (instalação opcional descarregado com o instalador de base em Mac OS, pelo menos) e “blending” normal.
Para utilizadores mais exigentes, o Hugin lê informação EXIF sobre as lentes e o posicionamento e permite introdução manual de dados relativos a cada imagem (posição, rotação, lente, etc.), afinação manual de pontos-chave, criação de imagens HDR, assim como exportação em diversos formatos de imagem e até pode ser usado para apoiar exercícios de levantamento e modelação em arquitectura (ver aqui).

Confesso que no caso desta imagem, depois de criada a montagem panorâmica, passei pelo GIMP para ligeiros ajustes de cor, porque os originais estavam um bocado desmaiados. Clicando nas imagens (panorâmica e fotos originais), podem ver em maiores dimensões, no Flickr. Que tal vos parece a performance do Hugin? Que conselhos ou sugestões me dariam para melhorar este tipo de imagens? Precisam de alguma ajuda para se iniciarem neste processo de criar panorâmicas? A caixa de comentários está aberta para isso mesmo. ;)

Imagino que não seja complicado

“Eu não percebo nada disso, mas imagino que não seja complicado. É?”

Com cada vez mais frequência sou confrontado com este paradoxo: com a “democratização” das tecnologias e com a disseminação da ideia (absurda) de que dos computadores se tira o trabalho já feito, são cada vez mais as pessoas que, sem terem a menor ideia das competências necessárias, tarefas envolvidas ou tempo dispendido em alguns dos trabalhos que desenvolvo, requerem, em cima do prazo final de entrega dos trabalhos, actualizações, rectificações, modificações, revisões e outras tarefas que têm o seu tempo próprio no processo. E é comum dizerem mesmo coisas deste tipo: “não faço a mínima ideia como é que isso se faz, mas não deve ser assim tão complicado substituir isto, ou acrescentar aquilo ou…”

Mas não é bem assim, senhores. Se não fazem a menor ideia como se faz, é possível, e até provável, que aquilo que vos parece perfeitamente banal, mas que vos foi dito que teria um tempo próprio, seja de facto bastante complicado fora desse tempo.

Ah! É importante que se esclareça que neste “estabelecimento” o cliente não tem sempre razão. Aliás, é raro isso acontecer.

Desculpem o desabafo, mas são 5 da manhã e estou a acabar um desses projectos fora de tempo. Porquê? Porque, apesar de tudo, o trabalho é mesmo “a porca chantagem da sobrevivência”.

De pequenino se torce o pepino

Uma das mais eficazes (e desprezíveis) formas de fomentar o uso de aplicações e linguagens proprietárias e viciar o mercado e o contexto de produção informática é apostar no mercado da educação, com campanhas que, efectivamente, perpetuam e reforçam o ciclo vicioso da aparente falta de alternativas. Várias empresas de software usam estas estratégias: empresas como a Microsoft ou a Autodesk (os exemplos que conheço mais de perto) incentivam a utilização das suas ferramentas no contexto académico, apostam fortemente no circuito da formação financiada e tentam manter relações privilegiadas com o sector, promovendo acções de marketing mais ou menos disfarçadas de formação dirigidas a alunos, professores e demais responsáveis pela selecção de ferramentas a utilizar nas salas de aulas.

Já diz o povo, e com razão, que “de pequenino é que se torce o pepino“, e os efeitos destas acções são evidentes: o percurso formativo em variadíssimas áreas que necessitam de apoios tecnológicos são fortemente marcados por uma única aplicação ou suite. E a emergência de “pseudo” standards, a que algumas pessoas chamam os “standards de mercado”, mesmo que o seu crescimento resulte da manipulação do próprio mercado, é um exemplo claro de como esta é uma estratégia ganhadora para as empresas beneficiárias e altamente prejudicial para a sociedade.

Não me interessam lutas quixotescas contra a Microsoft, que é o exemplo mais completo desta forma de actuar, porque me incomoda (quase) tanto a sua hegemonia na área do “escritório e produtividade”, como me incomoda a hegemonia da Autodesk na arquitectura, engenharia e construção, ou da Adobe nas artes gráficas e multimédia ou mesmo da Apple em certas áreas do áudio e vídeo e como plataforma de hardware nas artes gráficas, ainda que quase não se sinta em Portugal.

As hegemonias, todas, incomodam-me porque resultam num encurtar de perspectivas para os utilizadores e, por esse facto, numa limitação da sua liberdade. É um processo no qual cada indivíduo participa, é certo. E, por isso mesmo, o caminho percorrido durante os períodos iniciais de formação, pelo menos esse, deveria ser marcado pela promoção e exploração de alternativas e deveria ser feita a distinção clara entre os tais “standards de mercado”, circunstanciais, e os standards de facto, dando especial atenção a questões como a interoperabilidade das soluções adoptadas. Esquecer a interoperabilidade é, acima de tudo, viciar as “regras do jogo” e prender os utilizadores numa espécie de “jaula invisível”.

Vem esta reflexão a propósito dum concurso que a Microsoft está a promover, em conjunto com a DGIDC (Direcção Geral da Inovação e Desenvolvimento Curricular do Ministério da Educação),  dirigido a estudantes do 2º e 3º ciclos do Ensino Básico e do Ensino Secundário, que premiará sites sobre Segurança na Internet, mas onde se privilegiará a utilização de ferramentas da Microsoft, numa jogada claramente denunciada pelo Rui Seabra.

O concurso promove não só a utilização de software proprietário, como contribui para a relativização da importância dos web standards e isso deveria ser razão mais do que suficiente para que os responsáveis públicos da DGIDC/eCRIE se manterem ao largo. Até porque os termos do concurso contrariam a estratégia positiva de promoção de soluções baseadas em Software Livre , como o Moodle e o Joomla, que, além de serem open source e gratuitas, estão envolvidos na promoção de standards reais e não levantam problemas de interoperabilidade.

Discutir e denunciar as condições de promoção deste concurso são tarefas que nos cabem a todos e espero que a Associação Ensino Livre possa vir a participar também nesta denúncia.

OOXML: Corrupção à escala global

O OOXML, da Microsoft, contra todos os argumentos técnicos, foi aprovado como standard ISO. A lista de irregularidades registadas no noooxml.org, apesar de ter um lugar especial para o nosso querido jardim à beira-mar plantado, mostra como a Microsoft generalizou comportamentos inaceitáveis de pressão, favorecimento e corrupção para fazer passar a proposta.

Com corrupção à escala global, só podemos sentir vergonha à escala global.

Quanto ao que ainda nos resta fazer, o Marcos Marado dá uma perspectiva útil.

Routine Check: RC#20080226 – Pure Data sketch

I had to make a big effort to keep up with the weekly routine, so this episode is a bit late.

And it’s a completely different thing, since it’s built entirely over experiences made with Pure Data, after the workshop I attended this past weekend.

Pure Data is an amazing tool and it will take me a long time before I can start making really interesting things, musically, but this Routine Check series is about exercises and sketches, so it seemed right to post this “odd” construction.

You can hear a “chaos machine”, that I started building before the workshop and that “looks” like this:

Pure Data - chaos machine by João Martins

And a simple synth module, with Frequency and Amplitude Modulation and MIDI controls:

Synth module with AM and FM and Midi controls

The possibilities are endless and I have some interesting challenges ahead.

A special thank you goes to Miguel Cardoso, responsible for the workshop at Maus Hábitos.

Max/MSP e PureData: uma oficina

As minhas abordagens ao Max/MSP e ao Pure Data foram sempre tímidas, desajeitadas e fracassadas. Por um lado, acho a ideia de aprender a trabalhar com uma plataforma destas extraordinariamente aliciante, mas é-me muitíssimo difícil quebrar a barreira inicial.
Deixo-me intimidar por este aspecto pouco “musical” e muito “geeky”, por exemplo.

 

Um patch em Pure Data, muito básico

Mas uma reaproximação era inadiável e é por isso que vou passar este fim de semana numa Oficina do Maus Hábitos:

MAX/MSP, PURE DATA (PD)
Orientador: Miguel Cardoso
23 e 24 de Fevereiro – sáb, dom
12h às 13.30h e das 14.30h às 20h
Duração: 14h

Pure Data (PD) e Max/Msp são aplicações com uma linguagem gráfica de programação em tempo real, bastante fácil de utilizar, para a criação de objectos interactivos. Pure Data é muito utilizado para processamento de som e video, conectar sensores, comunicar com aplicações na internet.
Iremos ver exemplos de instalações e aplicações desenvolvidas com PD, conhecer a vasta comunidade PureData, aprender os termos e conceitos desta linguagem, os princípios básicos de manipulação e sintese de som e imagem, e exploraremos os nossos conhecimentos com exercícios criando patches (Objectos de controlo de video, som, interfaces físicos (sensores).
Esta workshop é uma oportunidade para aprender os princípios básicos desta ferramenta.

O meu objectivo pessoal é ser capaz de fazer coisas mais interessantes do que esta “Chaos Machine”, que mostro aqui.

Nota: tinha anexado um exemplo do áudio produzido pelo patch ilustrado acima, mas foi retirado por razões técnicas.

Not so bright

Um Director de Marketing decide ver como vai a imagem da sua empresa online e faz uma simples pesquisa no Google:

Resultados da pesquisa no Google por Bright Partners

Os resultados são interessantes pela quantidade e o lugar do site da própria empresa no ranking de relevância (1º e 2º lugares) atestam da eficácia dos mecanismos de indexação utilizados.

Nota também que um feito recente da empresa gera alguns resultados destacados, mas depara-se com uma entrada num blog desconhecido logo em 5º lugar, bem à vista de todos, num tom que não é propriamente elogioso.

O que fazer?

Eduardo Empis, o Director de Marketing da Bright Partners passou por isso hoje mesmo e, numa atitude que se poderia considerar corajosa e, por isso, louvável, decidiu, em nome próprio, comentar o artigo em causa.

Eu, que não sou especialista de Marketing (longe disso), não sou capaz de prever os efeitos que isso possa ter na imagem e na visibilidade geral online desta organização, mas estou tão curioso que não resisto a chamar este comentário à ribalta do blog e responder, aqui mesmo.

Eduardo Empis gostaria de “perceber as razões que [me] levam a pôr em causa a competência e/ou a seriedade da BRIGHT PARTNERS.” Eu não me lembro de ter questionado qualquer uma dessas virtudes. Mas percebo o que Eduardo Empis quer dizer. E esclareço: o que está em causa não é o comportamento da Bright Partners. Presumo que serão tão competentes e sérios quanto pode ser uma empresa de consultoria na área da gestão de projectos, com forte componente tecnológica e sólidos laços à Microsoft. Parabéns por isso.

E são tão sérios que não escondem que uma das suas principais áreas de intervenção é a Administração Pública, com responsabilidades no planeamento e execução de vários programas famosos: “SIMPLEX, PRACE, Plano Tecnológico, Procedimentos Públicos, Restrições Contratuais, Mobilidade…”.

Ora, não é segredo nenhum para quem me conhece, que eu não sou adepto da Microsoft, mas, acima de tudo, não sou adepto da adopção de soluções proprietárias em termos de Software. Isso é um problema meu, obviamente, mas na qualidade de cidadão preocupado isso traduz-se no apoio político a opções por Software Livre nos vários sectores da Administração Pública.

Se juntarmos isto tudo, não é difícil perceber que a minha “irritação” relativa à Bright Partners se deve ao facto de ver nela um instrumento da Microsoft na adopção pouco transparente por parte do Estado de soluções que, a mim, me parecem desadequadas. É legítimo, sério e/ou competente da parte da Bright Partners? Não tenho razões para duvidar disso. Mas o contexto global que gere a adopção destas soluções não é transparente e, na minha opinião, não favorece a “coisa pública”. E é ao Estado que se destina toda a minha verdadeira irritação.

Empresas oportunistas não me aquecem nem arrefecem. Mas a gestão danosa de dinheiros públicos com que essas empresas lucram tira-me do sério.

O episódio dos Óscares da Microsoft, na minha opinião, é apenas prova de que a actividade da Bright Partners beneficia a multinacional de Redmond. A adopção de soluções proprietárias, baseadas em tecnologias e ferramentas MS na Administração Pública é, na minha opinião, uma forma de prejudicar o Estado. Mesmo quando é ele que pede.

Preciso de ser mais claro?

Até onde pode ir o Software Livre no Estado Português?

É uma óptima pergunta, não é?

O site Software Livre na AP procura ser parte da resposta:

Este local é um repositório de conhecimento em software livre (Open Source Software – OSS) das entidades do Estado Português e destina-se a ser um ponto de encontro e troca de experiências entre todos aqueles que, ao serviço do Estado, o utilizam. Deste contributo resulta uma mais-valia incalculável para quem pretende vir a utilizá-lo.

Associação Ensino LivreMas a navegação pelos incipientes exemplos de boas práticas dá-nos uma visão deprimente, ainda que realista, do panorama. Uma das áreas fulcrais (porque tem grandes impactos a prazo) é a Educação, e é por isso que a recém-criada Associação Ensino Livre pode vir a ter uma grande importância na definição duma dinâmica diferente.

É que a resposta à pergunta que serve de título a este artigo está na educação. É nas escolas, em todos os graus de ensino, que se podem inverter práticas perversas, criar novos hábitos, difundir novas posturas éticas.

Pessoalmente (e localmente), não posso deixar de lamentar o afastamento que a Universidade de Aveiro, que tanto se orgulha do seu papel pioneiro em tantas áreas, mantém, relativamente ao Software Livre. E não posso deixar de me interrogar, por causa do peso que a UA tem na dinâmica “local”, como seriam as coisas na autarquia, por exemplo, se o “contexto” fosse mais favorável à adopção destas soluções.

Mas quais serão os factores que determinam o grau de penetração do Software Livre nas diferentes áreas da Administração Pública portuguesa (nas autarquias, por exemplo)?

  • Opções políticas?
  • Dimensão e complexidade dos sistemas implementados?
  • Grau e antiguidade da informatização dos serviços?
  • Dependências económicas?
  • Competência do apoio técnico disponível?
  • Proximidade de prestadores de serviços/soluções diversificados?

A resposta será sempre multifacetada e há algumas partes da resposta mais defensáveis (e confessáveis) do que outras, como é óbvio. Mas era importante que se reflectisse publicamente sobre isto, porque esta é uma questão pública, por mais que se tente disfarçar.

Para esta reflexão, todas as contribuições são bem vindas.