#21
 302     Akershus     0
Som flere har sagt er kulde null problem, varme tåler de også overraskende godt, men hvis du faktisk har 40-50 grader i rommet UTENFOR PCen så kan du nok få en utfordring. Som en tommelfingerregel vil jeg si at rommet PCen står i ikke bør overstige 30 grader. Gjør den det har du lett 50-60 grader inne i PCen, og spesielt harddisker vil få en høyere feilrate.

Du bør i så fall kjøre med speilede disker så du enkelt kan bytte uten masse jobb med reinstallering når/hvis de ryker.

På generelt grunnlag behøver du ikke bekymre deg for at komponenter slites selv om maskinen står på 24/7. Dette kan de fleste PCer (og tilhørende komponenter) gjøre i årevis uten problemer. 
Signatur

   #22
 3,042     Akershus     0
Varme er det største problemet en datamaskin møter som regel. At den fortsetter å fungere når det kryper opp mot 30-40 grader betyr ikke at den har godt av det. Eldre datamaskiner kan godt takle dette bedre enn moderne maskiner.

At et rom blir for varmt garanterer at man må ut og skifte komponenter. Det er en grunn for at store server-rom har store kjølingsanlegg med reserveløsning hvis primæranlegget tar kvelden. Og nei, i prinsipp er det ikke store forskjeller på servere og vanlige datamaskiner.
   #23
 302     Akershus     0
Mange har store kjøleanlegg, men veldig mange har også disse justert langt kaldere enn nødvendig.

Google (som har flere servere enn de fleste) evder at basert på tester hos de kan man helt fint ha 26-27 grader.

Intel har gjort tester helt opp til 33 grader uten at de kunne finne "konsistent økning i antall komponentfeil".

Så man behøver i utgangspunket ikke å bekymre seg veldig.
Signatur
   #24
 4,110     Akershus (Follo)     0

På generelt grunnlag behøver du ikke bekymre deg for at komponenter slites selv om maskinen står på 24/7. Dette kan de fleste PCer (og tilhørende komponenter) gjøre i årevis uten problemer.

Jeg var på kurs hos leverandør og lærte om feil på datamaskiner og årsaker til disse. Riktignok noen år siden nå, men det har vel ikke skjedd så mye med kulelager teknologien.
Der ble det fremholdt at disker burde stå stille minst 10-15min. hvert døgn. Det ble begrunnet med at sentrifugalkraften fraktet smøremiddelet ut fra lagerflaten. Ved en slik stillstand seg smøremiddelet tilbake.
De inrømmet også at selv om de (vi) solgte 24/7/365 harddisker så var det vesentlig høyere feilrate på disse i kontinuerlig drift enn en vanlig harddisk som fikk denne beskrevne "døgnhvilen".

Men så rimelige som harddisker er nå så er RAID en enkel og billig løsning. La disken crashe og bytt den når det skjer.
Signatur
   #25
 3,042     Akershus     0
Hvis du klarer 33 grader gjennomført, kanskje. Gå du inn i hvilket som helst server-rom i dag og kjenner på romtemperaturen kontra utluften ifra en maskin så er ikke den lik. Enorme server-rom har langt mer sofistikert kjøling enn hva viftene i white-box'en din klarer.

Edit: Google snakker også om total kostnad, ikke hva som er sunt for maskinen din. Kan godt tenkes det er billigere for Google å spare inn på strøm og heller ha to maskinromsaper som flyr rundt og skifter disk.
   #26
 55     Oslo     0
Jeg hadde en server stående på kaldloft i flere år uten problemer. Det var kuldegrader om vinteren og nærmere 50°C om sommeren.

Maskinen hadde RAID og mange disker uten at jeg fikk et eneste diskhavari.

Eneste problemet kan være om maskinen stopper opp i kulda og starter igjen, dvs. at man får en forholdvis rask avkjøling og hurtig oppvarming som sikkert kan gi mye mekanisk stress.