gzip/zip apache

WWW
включаем. по умолчанию сжатие уже встроенное в apache2
создать файл

cat /usr/local/etc/apache22/Includes/gzip-output.conf
SetOutputFilter DEFLATE
AddOutputFilterByType DEFLATE text/plain
AddOutputFilterByType DEFLATE text/html


проверка
cat gzip-test.sh
wget -S --spider http://a1.ru/1.txt -o /dev/stdout | grep -i content
echo
wget -S --spider http://a1.ru/1.txt --header "Accept-Encoding: gzip,deflate" -o /dev/stdout | grep -i content


вывод

  Content-Type: text/plain
  Content-Length: 143881

  Content-Type: text/plain
  Content-Encoding: gzip
  Content-Length: 13602


так же можно проверить тут
http://www.gidnetwork.com/tools/gzip-test.php


или любой другой известный вам сервис

ubuntu pure-ftpd

многие спрашиваю как под ubuntu настраивать pure-ftpd.
ответ прост.

как такового файла pure-ftpd.conf нет. вместо него используется набор файлов в /etc/pure-ftpd.

чтобы понять что к чему — читаем ман по pure-ftpd-wrapper

падает barnyard2

смотрим логи… видим…

root@suricata:~# cat syslog

Aug 23 10:35:17 suricata barnyard2: #012#012+[ Signature Suppress list ]+#012----------------------------
Aug 23 10:35:17 suricata barnyard2: +[No entry in Signature Suppress List]+
Aug 23 10:35:17 suricata barnyard2: ----------------------------#012+[ Signature Suppress list ]+#012
Aug 23 10:35:19 suricata barnyard2: Barnyard2 spooler: Event cache size set to [2048]
Aug 23 10:35:19 suricata barnyard2: Log directory = /var/log/suricata
Aug 23 10:35:19 suricata barnyard2: INFO database: Defaulting Reconnect/Transaction Error limit to 10
Aug 23 10:35:19 suricata barnyard2: INFO database: Defaulting Reconnect sleep time to 5 second
Aug 23 10:35:19 suricata barnyard2: DEBUG => [Alert_FWsam](AlertFWsamSetup) Using alternative file: /usr/local/etc/sid-fwsam.map
Aug 23 10:35:19 suricata barnyard2: INFO => [Alert_FWsam](AlertFWsamSetup) Using sid-map file: /usr/local/etc/sid-fwsam.map
Aug 23 10:35:19 suricata barnyard2: INFO => [Alert_FWsam](FWsamCheckIn) Connected to host .
Aug 23 10:35:19 suricata barnyard2: Initializing daemon mode
Aug 23 10:35:19 suricata barnyard2: Daemon initialized, signaled parent pid: 5471
Aug 23 10:35:19 suricata barnyard2: PID path stat checked out ok, PID path set to /var/run/
Aug 23 10:35:19 suricata barnyard2: Daemon parent exiting
Aug 23 10:35:19 suricata barnyard2: Writing PID "5481" to file "/var/run//barnyard2_p4p1.pid"
............ skip ..........
Aug 23 10:35:25 suricata barnyard2: Node unique name is: suricata:p4p1#012
Aug 23 10:35:36 suricata barnyard2: FATAL ERROR: database mysql_error: Duplicate entry '3927-1' for key 'PRIMARY'#012#011SQL=[INSERT INTO sig_reference (ref_id,sig_id,ref_seq) VALUES ('2626','3927','1');]


вырос дубль… при этом barnyard2 уходит в down
бежим на оф.сайт и забираем последнию версию.
чистим таблицу с sig_reference
DELETE FROM sig_reference;


заново включаем/если выключали
output database: log, mysql, user=snorby password=pwd dbname=snorby host=localhost

VPN Windows 7 autostart

материала в инете достаточно. мы обобщим

способ 1 — через скрипт запуска.

@echo off
set connection=<название_vpn_соединения>
set pause=30
 
:LOOP
set connected=0
for /f "delims=" %%i in ('rasdial') do (
    if "%%i"=="%connection:"=%" set connected=1
)
if %connected%==0 (
    echo %date% %time%   "%connection%" connection not detected. Dialing...
    rasdial "%connection:"=%" <логин> <пароль>
) else (
    echo %date% %time%   "%connection%" connection is active.
)
ping -n %pause% 127.0.0.1>nul 2>&1
goto LOOP


где:
<название_vpn_соединения> — название вашего vpn-соединения
<логин> — ваш логин от vpn-соединения
<пароль> — ваш пароль от vpn-соединения

способ 2 — rasdial.exe
1. Первым делом запускаем «планировщик заданий».
2. Далее создаём «простую задачу» и придумываем ей имя.
3. Выбираем триггер «при входе в windows».
4. Выполняем действие «запустить программу».
5. Указываем пусть к самой программе «с:\windows\system32\rasdial.exe»
6. В поле «аргументы» через пробел пишем имя вашего VPN соединения, логин и пароль.

p.s. для способа 1 задачу так же подключаем в планировщик

определить железо

[root@vds02 ~]# dmidecode |less
# dmidecode 2.11
SMBIOS 2.4 present.
45 structures occupying 1406 bytes.
Table at 0xCFF6A000.

Handle 0x0000, DMI type 0, 24 bytes
BIOS Information
        Vendor: Phoenix Technologies LTD
        Version: 6.00
        Release Date: 05/29/2007
        Address: 0xE54F0
        Runtime Size: 109328 bytes
        ROM Size: 1024 kB
        Characteristics:
                PCI is supported
                PNP is supported
                BIOS is upgradeable
                BIOS shadowing is allowed
                ESCD support is available
                Boot from CD is supported
                Selectable boot is supported
                EDD is supported
                3.5"/2.88 MB floppy services are supported (int 13h)
                ACPI is supported
                USB legacy is supported
                LS-120 boot is supported
                ATAPI Zip drive boot is supported
                BIOS boot specification is supported
                Targeted content distribution is supported

Handle 0x0001, DMI type 1, 27 bytes
System Information
        Manufacturer: Supermicro
        Product Name: X7DBR-3
        Version: 0123456789
        Serial Number: 0123456789
        UUID: 53D19F64-D663-A017-8922-003048325CFA
        Wake-up Type: Power Switch
        SKU Number: Not Specified
        Family: Not Specified

Handle 0x0002, DMI type 2, 8 bytes
Base Board Information
        Manufacturer: Supermicro
        Product Name: X7DBR-3
        Version: PCB Version
        Serial Number: 0123456789
.....................................

post

WWW
в .htaccess
RewriteCond %{REQUEST_URI} ^/edit$
RewriteCond %{REQUEST_METHOD} POST
RewriteRule ^ / [L,F]


на вложеные
RewriteCond %{REQUEST_METHOD} POST
RewriteRule ^(.*/)?edit$ - [L,F]

backup dd freebsd

через файл
dd if=/dev/ad0 of=/iso.iso bs=8K conv=noerror,sync


на прямую с диска на диск
dd if=/dev/ad0 of=/dev/ad1 bs=8K conv=noerror,sync


запись образа на диск
dd if=/iso.iso of=/dev/ad1 bs=8K conv=noerror,sync


могут быть проблемы записи корневого раздела. может помочь шаманство с sysctl
или создание раздела такой же версии и копированием файлов

vds freebsd с нуля

данный материал не претендует на истину и все делалось на быструю руку и быстрый запуск. дальнейшая оптимизация — море информации в сети.

ставим порты.

root@h96:/usr # fetch http://mirror.yandex.ru/freebsd/ports/ports/ports.tar.gz
ports.tar.gz                                  100% of   52 MB  5317 kBps 00m00s
root@h96:/usr # tar xvfz ports.tar.gz
root@h96:/usr # cd ports
root@h96:/usr/ports # make index
Generating INDEX-9 - please wait..

далее делаем

root@h96:/usr/ports # portsnap fetch update
root@h96:/usr/ports # portsnap extract
root@h96:/usr/ports # portsnap update

ubuntu adaptec arcconf

берем утилиту с оф.сайта адптека «Adaptec Storage Manager»
забираем.

chmod +x arcconf
apt-get install libstdc++5
./arcconf GETCONFIG 1


видим
Controllers found: 1
----------------------------------------------------------------------
Controller information
----------------------------------------------------------------------
   Controller Status                        : Optimal
   Channel description                      : SAS/SATA
   Controller Model                         : Adaptec 5405
   Controller Serial Number                 : 3E0213008F5
   Physical Slot                            : 6
   Temperature                              : 44 C/ 111 F (Normal)
   Installed memory                         : 256 MB
   Copyback                                 : Disabled
   Background consistency check             : Disabled
   Automatic Failover                       : Enabled
   Global task priority                     : High
   Performance Mode                         : Default/Dynamic
   Stayawake period                         : Disabled
   Spinup limit internal drives             : 0
   Spinup limit external drives             : 0
   Defunct disk drive count                 : 0
   Logical devices/Failed/Degraded          : 1/0/1
   SSDs assigned to MaxCache pool           : 0
   Maximum SSDs allowed in MaxCache pool    : 8
   MaxCache Read Cache Pool Size            : 0.000 GB
   MaxCache flush and fetch rate            : 0
   MaxCache Read, Write Balance Factor      : 3,1
   NCQ status                               : Enabled
   Statistics data collection mode          : Enabled
   --------------------------------------------------------
   Controller Version Information
   --------------------------------------------------------
   BIOS                                     : 5.2-0 (18937)
   Firmware                                 : 5.2-0 (18937)
   Driver                                   : 1.2-0 (29801)
   Boot Flash                               : 5.2-0 (18937)
   --------------------------------------------------------
   Controller Battery Information
   --------------------------------------------------------
   Status                                   : Not Installed

----------------------------------------------------------------------
Logical device information
----------------------------------------------------------------------
Logical device number 0
   Logical device name                      : raid6
   RAID level                               : 6 Reed-Solomon
   Status of logical device                 : Suboptimal, Fault Tolerant
   Size                                     : 12393462 MB
   Stripe-unit size                         : 64 KB
   Read-cache mode                          : Enabled
   MaxCache preferred read cache setting    : Disabled
   MaxCache read cache setting              : Disabled
   Write-cache mode                         : Disabled (write-through)
   Write-cache setting                      : Disabled (write-through)
   Partitioned                              : Yes
   Protected by Hot-Spare                   : No
   Bootable                                 : Yes
   Failed stripes                           : No
   Power settings                           : Disabled
   --------------------------------------------------------
   Logical device segment information
   --------------------------------------------------------
... skip ...
Command completed successfully.



Читать дальше