O Webalizer, para quem não sabe, é um software que mostra as estatísticas de utilização de um site. Seu acesso, na maioria das vezes, é feita pelo cPanel, painel de controle do servidor. Esse acesso só acontece se o usuário estiver logado, o que pode inviabilizar o acesso as estatísticas por pessoas sem a senha.
Entretanto, há uma forma de exibir esses dados, publicamente.
Escrever uma página 100% idêntica para vários browsers pode parecer impossível. Mas não é.
Para contornar isso, hacks são usados, para tentar uma aproximação entre browsers.
O sysadmin lá da faculdade barrou, no servidor, o acesso à http://www.orkut.com. Coitado, ele esqueceu da URL https://www.orkut.com, via SSL.
Aproveitando a deixa, escrevi um pequeno Greasemonkey, que converte todos os links encontrados na página do orkut para o mesmos respectivos links, só que com o S, do https. Parece tosco, né? E é.
orkut.user.jsEsse artigo não tem tanto a ver com esse site, mas pode ajudar muitos admistradores de rede Linux.
O uso do MSN desenfreado pode acabar com a produtividade do trabalho em uma empresa, por exemplo. Aonde eu trabalho, implementamos uma solução interessante: um sniffer, que gera relatórios das conversas dos funcionários (o que não é tão ético assim) e que está instalado em nosso servidor de Internet (rodando Slackware Linux).
Review de alguns clientes FTP para Mac OS. Estou acostumado com o Transmit, pois há uma interação muito interessante com o Mac OS.
Aproveitando o post, lista de editores HTML para Macintosh. Esse site possui bastante resources para quem desenvolve web. Basta desenterrar seu Español del Paraguay.Pescado do digg:
#preloadedImages { width: 0px; height: 0px; display: inline; background-image: url(path/to/image1.png); background-image: url(path/to/image2.png); background-image: url(path/to/image3.png); background-image: url(path/to/image4.png); background-image: url(); } Depois de configurar o CSS, basta chamar uma div, com seu respectivo id.Finalmente chegou meu Mac.
Comprei um iBook 700MHz, 256MB Ram, 30GB HD, para uma nova vida mobile.Pescado do AjarianSistemas de busca, ao trabalhar, lêem um arquivo “robots.txt” (deixado na raiz do servidor). Esse arquivo especifica para o spider quais arquivos devem aparecer na busca.
Nesse artigo, veremos como excluir determinada pasta de uma search engine.
No artigo anterior, sugeri a mudança na configuração do httpd.conf para ocultar qual a tecnologia de um site. Isso pode ser útil em dois casos. O primeiro, por uma questão estética (não tão relevante) e a segunda por uma questão de segurança. Já que não se conhece como o site foi feito, ataques com SQL Injection, por exemplo, podem ser atrasados.