Il quasi incidente o near miss: identificazione e gestione

Il quasi incidente o near miss è un importante segnale d’allarme da non ignorare. Gestire adeguatamente i quasi incidenti è fondamentale per la salute e sicurezza nel luogo di lavoro.

near-miss

Identificazione del quasi incidente

Un mancato incidente può essere definito come un incidente che non ha provocato danni. Per identificare i mancati incidenti o infortuni, le aziende devono implementare un sistema di monitoraggio accurato e continuo. Questo può includere l’utilizzo di report e registri degli incidenti, la valutazione delle cause e dei fattori di rischio che potrebbero portare a un infortunio, nonché l’analisi delle tendenze nel tempo. È importante coinvolgere tutti i lavoratori nell’identificazione dei mancati incidenti.

Inoltre, è utile l’analisi del tasso di frequenza degli incidenti. Questo indicatore misura il numero di infortuni per un determinato numero di ore lavorate o per un determinato periodo di tempo. Un tasso di frequenza basso può indicare una buona gestione della sicurezza sul lavoro, ma potrebbe anche nascondere problemi di sotto-segnalazione degli incidenti da parte dei lavoratori. Pertanto, è importante analizzare i dati in modo critico, tenendo conto di tutti i fattori che possono influenzare l’accuratezza dei risultati. Identificare i mancati incidenti è un passo importante nella gestione efficace della sicurezza sul lavoro. Una volta individuati, è importante analizzare le cause profonde e prendere provvedimenti per prevenire infortuni futuri.

Analisi delle cause e fattori di rischio

Ci sono diverse categorie di cause che possono contribuire a un incidente sul lavoro. Le cause immediate sono direttamente legate all’incidente stesso, come ad esempio un errore umano o una condizione di lavoro non sicura. Le cause sottostanti, invece, sono più profonde e radicate nel sistema di gestione della sicurezza. Queste possono includere problemi organizzativi, quali mancanza di formazione adeguata, comunicazione inefficace o carenze nella supervisione.

Oltre alle cause, è importante considerare anche i fattori di rischio che possono contribuire agli infortuni sul lavoro. I fattori di rischio sono le condizioni o le situazioni che aumentano la probabilità che si verifichi un infortunio. Essi possono essere suddivisi in due categorie principali: i fattori fisici e i fattori psicosociali.

I fattori fisici includono l’uso di macchinari pericolosi, la mancanza di dispositivi di sicurezza adeguati o una postura scorretta durante il lavoro. I fattori psicosociali, invece, riguardano gli aspetti relazionali e psicologici del lavoro, come ad esempio l’eccessivo carico di lavoro, l’assenza di supporto sociale o la mancanza di controllo sul proprio lavoro.

Per effettuare un’analisi accurata delle cause e dei fattori di rischio, è necessario raccogliere dati dettagliati sugli incidenti, esaminare le procedure operative e intervistare i lavoratori. Queste informazioni sono essenziali per identificare le cause principali degli infortuni e sviluppare interventi efficaci per prevenirli.

Strategie per la prevenzione dei mancati incidenti

La formazione dei lavoratori e il ruolo della comunicazione interna sono elementi fondamentali per la gestione dei mancati infortuni all’interno delle organizzazioni. La formazione riguarda sia la prevenzione che la gestione degli infortuni, fornendo ai dipendenti le competenze necessarie per evitare situazioni rischiose e per agire in modo appropriato in caso di incidenti. Questa formazione può includere addestramenti sulle norme di sicurezza, l’uso corretto degli strumenti e delle attrezzature, nonché procedure di evacuazione e di primo soccorso.

La comunicazione interna svolge un ruolo chiave nel garantire che tutti i dipendenti siano consapevoli delle politiche aziendali in materia di sicurezza e degli eventuali cambiamenti o aggiornamenti. La comunicazione interna deve essere chiara, tempestiva e accessibile a tutti i dipendenti, utilizzando diversi canali come ad esempio meeting di gruppo, newsletter o intranet aziendale. In questo modo, si favorisce la diffusione delle informazioni pertinenti e si stimola un clima di consapevolezza e responsabilità tra i dipendenti.

La formazione e la comunicazione devono essere integrate in un sistema di gestione degli infortuni che includa anche la raccolta e l’analisi dei dati sugli incidenti e le relative azioni correttive. Questo permette di identificare le cause degli infortuni e di adottare misure preventive per evitare future situazioni simili.

Monitoraggio, valutazione e adeguamento delle misure preventive

Attraverso il monitoraggio è possibile individuare eventuali carenze nelle misure preventive adottate, al fine di poter intervenire tempestivamente per correggere la situazione. Il monitoraggio può avvenire attraverso diverse modalità, tra cui l’analisi dei dati relativi agli incidenti e agli infortuni sul lavoro, l’analisi delle segnalazioni di pericolo o casi di quasi infortunio, nonché attraverso l’osservazione diretta delle condizioni di lavoro.

Una volta effettuato il monitoraggio, è necessario procedere alla valutazione delle misure preventive adottate. La valutazione può essere effettuata attraverso l’analisi dei dati raccolti durante il monitoraggio e confrontando tali dati con gli obiettivi prefissati. L’obiettivo della valutazione è quello di individuare eventuali criticità o aree di miglioramento.

Successivamente, sulla base dei risultati della valutazione, si procede all’adeguamento delle misure preventive. Questo può avvenire attraverso la modifica o l’implementazione di nuove misure preventive, al fine di ridurre al minimo i rischi per la salute e la sicurezza dei lavoratori.

Monitoraggio, valutazione e adeguamento delle misure preventive costituiscono un processo continuo e dinamico. Le condizioni di lavoro possono cambiare nel tempo, così come i rischi associati. Pertanto, è fondamentale che l’organizzazione sia in grado di adattarsi e di modificare le misure preventive in base alle nuove necessità. In conclusione, il monitoraggio, la valutazione e l’adeguamento delle misure preventive sono strumenti essenziali per garantire la sicurezza sul lavoro. Attraverso un costante monitoraggio, una valutazione accurata e un adeguamento tempestivo delle misure preventive, è possibile creare un ambiente di lavoro sicuro ed efficiente, riducendo al minimo il rischio di incidenti e infortuni.


Indicazioni Ministeriali per il rientro a scuola 2023/24: protocollo per studenti positivi al COVID-19

Il 10 agosto è stato pubblicato in Gazzetta Ufficiale un decreto che abolisce gli obblighi di isolamento e auto-sorveglianza e modifica le regole relative al monitoraggio della situazione epidemiologica causata dalla diffusione del virus SARSCoV2.

Successivamente, il Ministero della Salute ha emesso una circolare l’11 agosto che, in considerazione del nuovo quadro normativo privo di restrizioni, offre delle indicazioni linee guida sul comportamento da adottare in caso di contrazione del COVID-19.

protocollo-studenti-positivi-covid19

La Circolare ministeriale del 11 agosto 2023

Nella circolare ministeriale si raccomanda alle persone che risultassero positive a un test diagnostico per il SARSCoV-2 di adottare le stesse misure precauzionali che sono efficaci nella prevenzione della diffusione della maggior parte delle infezioni respiratorie, ovvero:

  • utilizzare una protezione per le vie respiratorie, come una mascherina chirurgica o FFP2, quando si interagisce con altre persone;
  • restare a casa fino alla scomparsa dei sintomi in caso di manifestazioni sintomatiche;
  • igienizzare frequentemente le mani;
  • evitare ambienti affollati;
  • evitare il contatto con individui vulnerabili, immunodepressi, donne in gravidanza, e astenersi dal visitare ospedali o residenze sanitarie assistite;
  • informare le persone con cui hai avuto contatto prima della diagnosi, soprattutto se sono anziane o fragili;
  • consultare il medico di fiducia se si rientra nella categoria delle persone fragili o immunodepresse, in caso di persistenza dei sintomi oltre 3 giorni o di un peggioramento delle condizioni di salute.

Contatti positivi

Per quanto riguarda le persone che hanno avuto un contatto con individui positivi, non sono previste restrizioni particolari o misure di isolamento obbligatorio. Tuttavia, è consigliato rimanere vigili e monitorare attentamente la propria salute per l’eventuale comparsa di sintomi che potrebbero suggerire un’infezione da COVID-19. Questi sintomi includono febbre, tosse, mal di gola, stanchezza, e possono manifestarsi nei giorni immediatamente successivi al contatto con un caso confermato di COVID-19.

In conclusione, anche se non vi sono restrizioni obbligatorie, è fondamentale mostrare responsabilità sociale e solidarietà, facendo il possibile per prevenire la diffusione del COVID-19 e proteggere le persone più vulnerabili della comunità.


Microclima

Il microclima è un aspetto importante da considerare in ogni ambiente, sia esso interno o esterno. Tuttavia, i principali disagi del microclima riguardano soprattutto gli ambienti interni, dove la temperatura e l’umidità possono influire sulla salute e sul benessere delle persone.

microclima

Che cos’è il microclima nell’ambiente di lavoro?

Il microclima nell’ambiente di lavoro è l’insieme delle condizioni climatiche che si verificano all’interno di un ambiente lavorativo, come la temperatura, l’umidità relativa dell’aria, la velocità del vento, la pressione atmosferica e la qualità dell’aria. Questi fattori possono influenzare il benessere e la produttività dei lavoratori, quindi è importante effettuare una valutazione del microclima per garantire un ambiente di lavoro sicuro e confortevole.

La valutazione del microclima comporta l’analisi delle condizioni climatiche all’interno dell’ambiente di lavoro al fine di identificare eventuali problemi. Ad esempio, un’eccessiva umidità relativa può creare condizioni ideali per la crescita di muffe e funghi, che a loro volta possono causare allergie e malattie respiratorie.

La valutazione del microclima

Il rischio da microclima è una valutazione complessa, che richiede l’analisi di diverse variabili quali la temperatura, l’umidità relativa, la velocità del vento e l’irraggiamento solare. La valutazione del microclima include la misurazione della temperatura dell’aria, dell’umidità relativa dell’aria, della velocità dell’aria e della radiazione solare. Tutti questi fattori possono influire sul comfort termico dei lavoratori e sulla loro capacità di svolgere le attività lavorative in modo efficiente.

La valutazione del microclima può anche includere l’esame delle condizioni di illuminazione nell’ambiente di lavoro. Una buona illuminazione è essenziale per garantire un ambiente confortevole e sicuro per i lavoratori.

Infine, la valutazione del microclima comprende anche l’esame della qualità dell’aria nell’ambiente di lavoro. La presenza di sostanze inquinanti nell’aria può causare problemi respiratori, allergie e malattie.

Microclima e benessere termico

La normativa vigente in Italia prevede l’utilizzo di specifici indici di valutazione per verificare che i parametri climatici siano in linea con le esigenze degli utenti. In particolare, la norma UNI EN 15251 stabilisce i criteri di comfort termico per gli edifici e le attività indoor, considerando vari fattori come la temperatura dell’aria, la velocità dell’aria, l’umidità relativa e la temperatura radiante media. L’indice di riferimento principale per valutare il comfort termico è il PMV (Predicted Mean Vote), che tiene conto delle sensazioni termiche degli occupanti e delle condizioni ambientali.

Per quanto riguarda gli ambienti esterni, invece, viene utilizzato l’indice UTCI (Universal Thermal Climate Index), che considera non solo la temperatura dell’aria ma anche altri fattori come la radiazione solare, la velocità del vento e l’umidità relativa. Questo indice è stato sviluppato per valutare il rischio di stress termico per le persone che lavorano all’aperto o praticano attività sportive.

Gli indici sopracitati non sono degli obblighi normativi ma delle linee guida per garantire il benessere termico degli utenti.

Le categorie degli ambienti microclimatici

La prima categoria riguarda gli ambienti di lavoro. In questi spazi, la temperatura, l’umidità e la ventilazione possono influire sulla produttività e sulla salute dei lavoratori. È importante mantenere una temperatura adeguata e un’umidità relativa tra il 40% e il 60%. Inoltre, è fondamentale garantire una corretta ventilazione per evitare accumulo di anidride carbonica e di altri inquinanti.

La seconda categoria riguarda gli ambienti domestici. Anche in questo caso vale quanto detto sopra relativamente agli ambienti di lavoro.

La terza categoria riguarda gli ambienti ospedalieri. In questi spazi, la temperatura, l’umidità e la ventilazione possono influire sulla guarigione dei pazienti. È importante mantenere una temperatura adeguata (tra i 20°C e i 25°C) e un’umidità relativa tra il 40% e il 60%. Inoltre, è fondamentale garantire una corretta ventilazione per evitare la diffusione di agenti patogeni.

La quarta categoria riguarda gli ambienti scolastici. In questi spazi, la temperatura, l’umidità e la ventilazione possono influire sull’apprendimento degli studenti. È importante mantenere una temperatura adeguata (tra i 18°C e i 22°C) e un’umidità relativa tra il 40% e il 60%. Inoltre, è fondamentale garantire una corretta ventilazione per evitare accumulo di anidride carbonica e di altri inquinanti.

Il microclima negli ambienti moderati

Il microclima negli ambienti moderati è un aspetto fondamentale da tenere in considerazione per garantire il benessere degli individui che frequentano tali spazi. Normative e indici di riferimento rappresentano uno strumento indispensabile per la valutazione del microclima, al fine di garantire il rispetto dei limiti di legge e un adeguato livello di comfort termico.

Il D. Lgs. 81/2008 stabilisce le norme in materia di salute e sicurezza sul lavoro, tra cui l’obbligo di fornire ai lavoratori un ambiente di lavoro confortevole e sicuro. In particolare, l’articolo 191 prevede la necessità di adottare tutti i provvedimenti idonei a tutelare la salute dei lavoratori dall’esposizione a rischi derivanti dalle condizioni ambientali di lavoro.

Per valutare il microclima negli ambienti moderati, esistono diversi indici di riferimento come la temperatura operativa, l’umidità relativa e la velocità dell’aria. La temperatura operativa rappresenta la temperatura effettivamente percepita dagli individui, tenendo conto delle condizioni ambientali e delle attività svolte. L’umidità relativa indica la quantità di vapore acqueo presente nell’aria ed è importante per evitare problemi respiratori o irritazioni cutanee. Infine, la velocità dell’aria è fondamentale per evitare fenomeni di raffreddamento per convezione.

Per garantire un adeguato livello di comfort termico, esistono anche altre normative specifiche come la norma UNI EN ISO 7730, che definisce i parametri per la valutazione del comfort termico e l’indice di benessere PMV (predicted mean vote). Tale indice tiene conto della temperatura operativa, dell’umidità relativa, della velocità dell’aria, dell’abbigliamento e dell’attività svolta dagli individui.

Il microclima negli ambienti severi caldi e freddi

La valutazione del microclima in ambienti severi caldi e freddi richiede una particolare attenzione. In contesti caldi come le fonderie, le acciaierie o le centrali termoelettriche, il microclima può rappresentare una sfida importante per la salute dei lavoratori. Le alte temperature, infatti, possono provocare disidratazione, colpi di calore e altri disturbi che possono compromettere la capacità di lavoro e aumentare il rischio di incidenti sul posto di lavoro.

Per valutare il microclima in questi ambienti è possibile utilizzare strumenti specifici come termometri a sonda o sensori di umidità. Inoltre, è importante effettuare una valutazione dell’esposizione al calore dei lavoratori, che tiene conto non solo della temperatura ambientale ma anche del tasso di umidità relativa, della velocità dell’aria e delle attività svolte dai lavoratori stessi.

Anche nei contesti freddi come i magazzini frigoriferi o le stazioni sciistiche, la valutazione del microclima è fondamentale per garantire il comfort degli operatori e dei visitatori. Le basse temperature possono infatti provocare ipotermia, congelamento delle estremità e altre patologie legate all’esposizione al freddo. Anche in questo caso sono utili i termometri a sonda o sensori di umidità, oltre alla valutazione della velocità dell’aria e dell’esposizione al freddo dei lavoratori. Ovviamente è importante prevedere un adeguato isolamento termico degli ambienti e la presenza di sistemi di riscaldamento adeguati.

Qual è il microclima confortevole?

Ci sono diversi fattori che possono influire sulla percezione del microclima da parte dei lavoratori. In primo luogo, la temperatura: un ambiente troppo caldo o troppo freddo può causare disagio e stress. La temperatura ideale dipende dalle attività svolte all’interno dell’ambiente di lavoro; un’umidità dell’aria troppo bassa può causare secchezza delle mucose nasali e oculari, mentre un’umidità troppo alta può favorire la crescita di muffe e batteri. L’umidità ideale dovrebbe essere compresa tra il 40% e il 60%.

La ventilazione è un altro aspetto cruciale per garantire un microclima confortevole. Una ventilazione insufficiente può causare accumulo di agenti inquinanti nell’aria, come ad esempio polveri o sostanze chimiche presenti nei materiali utilizzati all’interno dell’ambiente di lavoro.

Infine, la qualità dell’illuminazione può influire sulla percezione del microclima da parte dei lavoratori. Una luce troppo intensa o mal distribuita può causare stanchezza visiva e mal di testa.

In conclusione, un microclima confortevole migliora la qualità della vita dei lavoratori, riduce il rischio di malattie legate al clima e aumenta la produttività.



 

Legionella, rischio di contagio

La legionella è un batterio che può causare malattie respiratorie gravi come la legionellosi. Il batterio della legionella può proliferare nei sistemi idrici degli edifici. Il rischio di contagio tramite l’acqua è relativamente alto dal momento che la legionella può sopravvivere in acqua a temperature comprese tra i 20°C e i 50°C, temperature ideali per la proliferazione batterica. Gli impianti idrici degli edifici, come le torri di raffreddamento, i condizionatori d’aria e i sistemi di distribuzione dell’acqua calda sanitaria, possono essere dei veri e propri incubatori per la legionella.

legionella

Come evitare la proliferazione della legionella negli impianti idrici degli edifici

La legionella si trasmette attraverso l’inalazione di piccole goccioline d’acqua infette, come quelle prodotte dalle docce, dai rubinetti o dall’aria condizionata. La malattia non si trasmette da persona a persona. Per prevenire la legionellosi è importante mantenere gli impianti idrici puliti e ben curati. Ciò include la regolare pulizia delle torri di raffreddamento e dei serbatoi d’acqua, il mantenimento delle temperature dell’acqua sotto i 20°C o sopra i 60°C, l’eliminazione di acqua stagnante nei sistemi idrici ed il controllo della concentrazione di cloro nell’acqua.

Identificazione delle aree a rischio e monitoraggio degli impianti idrici

L’identificazione delle aree a rischio e il monitoraggio degli impianti idrici ricoprono un ruolo fondamentale nella prevenzione della proliferazione della legionella negli edifici.

In primo luogo, è importante effettuare un’analisi dettagliata degli impianti idrici per individuare eventuali punti critici, come gli accumulatori di calore, i serbatoi di accumulo dell’acqua e gli impianti di nebulizzazione.

Una volta individuati questi punti critici, è necessario monitorare regolarmente gli impianti per rilevare eventuali anomalie o variazioni dei parametri di controllo. In particolare, il monitoraggio degli impianti idrici deve includere la misurazione della temperatura dell’acqua in diversi punti dell’impianto, la verifica della presenza di sostanze chimiche come il cloro e la revisione periodica degli impianti per garantire che siano conformi alle normative vigenti.

Inoltre, è utile adottare misure preventive per mantenere l’impianto sempre in condizioni igieniche ottimali, come la pulizia periodica degli accumulatori di calore e dei serbatoi di accumulo dell’acqua.

Manutenzione regolare e pulizia degli impianti di riscaldamento, ventilazione e aria condizionata

La manutenzione regolare e la pulizia degli impianti di riscaldamento, ventilazione e aria condizionata sono essenziali per evitare la proliferazione della legionella negli edifici. Gli impianti di condizionamento sono uno dei luoghi più comuni in cui la legionella può proliferare.

La manutenzione regolare include controlli periodici per individuare eventuali perdite o guasti, la sostituzione delle parti usurate e la pulizia dell’intero sistema di condizionamento. La pulizia degli impianti di riscaldamento, ventilazione e aria condizionata richiede l’utilizzo di detergenti specifici per rimuovere i depositi di calcare, la polvere, i batteri e altri contaminanti che possono accumularsi all’interno dell’impianto.

Esistono diversi tipi di sistema di trattamento dell’acqua che possono essere utilizzati per prevenire la crescita della legionella, tra cui l’utilizzo di biocidi, l’installazione di filtri e la disinfezione dell’acqua. Uno dei metodi più comuni per prevenire la crescita della legionella è l’utilizzo di biocidi. Questi prodotti chimici vengono aggiunti all’acqua degli impianti idrici per uccidere eventuali batteri presenti e prevenire la loro proliferazione. I biocidi possono essere a base di cloro, bromo, iodio o altri composti chimici.

Un altro metodo efficace per prevenire la crescita della legionella è l’installazione di filtri negli impianti idrici. I filtri rimuovono le particelle che possono fungere da nutrimento per i batteri e possono ridurre significativamente il rischio di infezioni da legionella. Esistono diversi tipi di filtri che possono essere utilizzati, tra cui filtri a carbonio attivo e filtri ultravioletti.

Infine, la disinfezione dell’acqua può essere effettuata anche con metodi fisici come l’irradiazione con raggi ultravioletti. Gli interventi di manutenzione devono essere effettuati da personale specializzato e qualificato, in grado di garantire l’efficacia delle operazioni di pulizia e il rispetto delle norme di sicurezza.

Controllo della temperatura dell’acqua negli impianti idrici

Il controllo della temperatura dell’acqua è uno dei principali fattori nella prevenzione della proliferazione della legionella negli impianti idrici degli edifici. Dal momento che la temperatura ideale per la crescita del batterio è compresa tra i 20°C e i 45°C, mantenere l’acqua al di fuori di questa fascia di temperatura impedisce la proliferazione della legionella.

In Italia l’acqua potabile deve essere mantenuta a una temperatura tra i 10°C e i 25°C alla distribuzione ai punti di prelievo. Tuttavia, in determinati casi, come ad esempio negli ospedali o nelle case di riposo, l’acqua calda può essere mantenuta a una temperatura superiore ai 60°C, in modo da disinfettare gli impianti e prevenire la diffusione di batteri. Grazie all’utilizzo di termometri è possibile monitorare costantemente la temperatura dell’acqua e regolare la temperatura dell’acqua calda ai punti in cui il rischio di contaminazione è maggiore. Per ridurre ulteriormente il rischio di proliferazione della legionella, si possono installare dispositivi di raffreddamento dell’acqua o di trattamento termico, che mantengono l’acqua al di sotto della temperatura ideale per la crescita del batterio.


Il defibrillatore: quando è obbligatorio e come usarlo

Il defibrillatore, un dispositivo che può salvare vite, ma ancora troppo spesso viene sottovalutato o ignorato: quando è obbligatorio averne uno a disposizione e soprattutto come usarlo in caso di emergenza? Ogni anno molte persone sono colpite da arresto cardiaco improvviso e una parte di queste perde la vita perché non soccorse tempestivamente. Quali sono le normative relative all’obbligo dei defibrillatori nei luoghi pubblici ed privati? Quali strutture hanno l’obbligo di dotazione? Quali sanzioni sono previste in caso contrario?

defibrillatore

Requisiti e normative per l’obbligatorietà dei defibrillatori

Il defibrillatore può essere manuale, automatico, semiautomatico o impiantabile, e serve per defibrillare un paziente colpito da arresto cardiaco o da fibrillazione ventricolare erogando una scarica elettrica al cuore.

I defibrillatori automatici o semiautomatici esterni (DAE) rappresentano un importante strumento di primo soccorso in caso di arresto cardiaco improvviso. La loro diffusione e l’obbligatorietà della presenza dei DAE in luoghi pubblici o privati è soggetta a specifici requisiti e normative. Il DAE è obbligatorio solo in alcuni contesti: ad esempio, nei luoghi di lavoro con oltre 15 dipendenti, nelle palestre con più di 300 m2 di superficie, negli impianti sportivi con una capienza superiore ai 500 posti a sedere, nei luoghi ad alta affluenza come gli aeroporti o le stazioni ferroviarie con una media di almeno 500 persone al giorno, nelle strutture ricettive come gli hotel con almeno 25 posti letto e nel trasporto sanitario.

Pertanto, l’acquisto e l’utilizzo dei DAE deve essere effettuato seguendo specifiche normative che regolamentano la qualità del dispositivo e la formazione necessaria per il suo corretto utilizzo. Tali normative sono dettate dal Ministero della Salute, dalla Società Italiana di Medicina d’Emergenza-Urgenza (SIMEU) e dalla Federazione Italiana di Cardiologia (FIC). In sintesi, i DAE devono essere conformi alle norme CE e alla normativa EN 60601-1.

Inoltre, per l’utilizzo del DAE è richiesta una formazione specifica da parte di personale in possesso di un attestato di primo soccorso e di un corso specifico per l’utilizzo del defibrillatore. Tale formazione deve essere rinnovata periodicamente e assicurare una conoscenza adeguata delle procedure d’uso e delle azioni da intraprendere in caso di arresto cardiaco improvviso.

Posizionamento e manutenzione del defibrillatore in luoghi pubblici e privati

È fondamentale che il defibrillatore sia facilmente accessibile, visibile e che si trovi in una posizione strategica. In primo luogo è importante valutare la frequenza e il tipo di attività svolta nel luogo in cui si intende posizionare il defibrillatore. Il luogo ideale di posizionamento del defibrillatore è un luogo facilmente raggiungibile, ben visibile e possibilmente protetto in una idonea teca.

Il defibrillatore deve essere sottoposto ad una manutenzione regolare per cui, per esempio, bisogna controllare le batterie per assicurarsi che siano cariche e sostituirle quando necessario. Inoltre, bisogna controllare che i fili conduttori siano in buono stato e che i cuscinetti adesivi siano adeguatamente attaccati, sostituendoli se necessario.

Chi può utilizzare il DAE?

Il defibrillatore può essere utilizzato da medici e dal personale sanitario non medico, ma anche da personale non sanitario purché formato in modo specifico.

Formazione obbligatoria per l’utilizzo del DAE

La formazione obbligatoria per l’utilizzo del DAE è fondamentale per poter intervenire tempestivamente in caso di arresto cardiaco improvviso. La normativa prevede infatti l’obbligo per determinate categorie di persone, come gli operatori sanitari, il personale scolastico e il personale delle aziende, di essere formato all’utilizzo del DAE.

La formazione si compone di una parte teorica e una parte pratica, in modo che gli partecipanti acquisiscano le competenze necessarie per utilizzare correttamente il DAE. Nella parte teorica si esaminano i concetti di base sulla fisiologia del cuore, sulle cause dell’arresto cardiaco e sulle modalità di intervento con il DAE. Inoltre, viene spiegato il funzionamento del defibrillatore semiautomatico esterno e le precauzioni da adottare durante l’intervento.

La parte pratica, invece, consiste in esercitazioni su un manichino per simulare le varie situazioni in cui si può verificare un arresto cardiaco improvviso. I partecipanti apprendono come posizionare le placche adesive sul torace del paziente, come attivare il defibrillatore e come seguire le istruzioni vocali fornite dal dispositivo.

Procedura di utilizzo corretto del defibrillatore durante un’emergenza cardiaca

In primo luogo bisogna verificare che il defibrillatore sia in grado di funzionare correttamente e che sia carico almeno al 50% della sua capacità. Successivamente, bisogna accedere alle pad adesive, rimuovendo la carta protettiva e posizionandole sul torace della persona da soccorrere, seguendo le indicazioni riportate sul dispositivo.

Una volta posizionate le pad, è necessario collegare il defibrillatore mediante i cavi forniti e accendere il dispositivo, seguendo le istruzioni riportate sul display. Il defibrillatore effettua in modo automatico un’analisi del ritmo cardiaco e, se rilevata una fibrillazione ventricolare o una tachicardia ventricolare senza polso, emetterà un segnale acustico che indicherà di premere il pulsante di scarica.

Prima di premere il pulsante di scarica, si deve assicurarsi che tutte le persone presenti siano lontane. Si deve poi applicare una pressione decisa sul pulsante e attendere che il defibrillatore emetta una scarica elettrica. Dopo aver effettuato la scarica, il defibrillatore riprenderà l’analisi del ritmo cardiaco del paziente e indicherà se sia necessario ripetere la procedura. Nel caso in cui non sia rilevata più attività elettrica del cuore, sarà necessario iniziare immediatamente la rianimazione cardiopolmonare.


Le radiazioni ionizzanti

Che cos’è una radiazione ionizzante e perché è dannosa per la salute?

Le radiazioni ionizzanti sono un tipo di energia che è in grado di rimuovere gli elettroni dagli atomi, creando ioni. Questo tipo di radiazione può causare danni ai tessuti viventi, aumentando il rischio di cancro, malattie cardiache e altre patologie.

Le radiazioni ionizzanti possono essere emesse da fonti naturali come il sole, ma anche da attività umane come l’uso di materiali radioattivi in medicina o in industria. Le fonti più comuni di radiazioni ionizzanti sono i raggi X, le radiazioni gamma e le particelle beta.

radiazioni-ionizzanti

Il nostro corpo è in grado di gestire una certa quantità di esposizione alle radiazioni ionizzanti senza subire danni permanenti. Tuttavia, l’esposizione a dosi elevate può essere estremamente dannosa per la salute.

I tessuti del nostro corpo sono composti da cellule che possono essere danneggiate dalle radiazioni ionizzanti. Quando le cellule subiscono danni al DNA, questo può portare alla formazione di mutazioni genetiche che possono causare malattie come il cancro.

L’esposizione alle radiazioni ionizzanti può anche influire sul sistema immunitario e sul sistema cardiovascolare, aumentando il rischio di malattie cardiache e altre patologie.

Per ridurre i rischi associati all’esposizione alle radiazioni ionizzanti, è importante prendere precauzioni appropriate quando si lavora con materiali radioattivi o si eseguono procedure mediche che coinvolgono l’uso di raggi X o altre fonti di radiazione.

Come agiscono le radiazioni ionizzanti e quelle non ionizzanti?

Le radiazioni sono un tipo di energia che si propaga nell’ambiente sotto forma di onde o particelle. Esistono due tipi principali di radiazioni: ionizzanti e non ionizzanti. Le radiazioni ionizzanti sono in grado di rimuovere elettroni dagli atomi del corpo umano, causando danni alle cellule e ai tessuti. Questo tipo di radiazione può essere prodotto naturalmente (da rocce radioattive per esempio) o artificialmente (da centrali nucleari, armi atomiche).

Le radiazioni non ionizzanti non hanno abbastanza energia per rimuovere gli elettroni dagli atomi del corpo umano. Questo tipo di radiazione può essere prodotto da fonti naturali (come il sole) o artificiali (come i telefoni cellulari). Le radiazioni non ionizzanti possono comunque causare danni alla salute, ad esempio il surriscaldamento dei tessuti corporei.

In generale, le persone sono maggiormente esposte alle radiazioni non ionizzanti rispetto a quelle ionizzanti: l’esposizione alle onde radio emesse dai telefoni cellulari è molto più comune dell’esposizione alle radiazioni prodotte dalle centrali nucleari.

Che cosa sono le radiazioni ionizzanti

La radiazione ionizzante può essere suddivisa in due categorie: particelle alfa e beta e raggi gamma e X. Le particelle alfa e beta sono costituite da particelle di materia che si muovono a velocità estremamente elevate. I raggi gamma e X sono invece costituiti da onde elettromagnetiche ad alta energia.

Le radiazioni alfa sono costituite da particelle cariche di due protoni e due neutroni (nucleo di elio) che vengono emesse da alcuni nuclei atomici instabili. A causa della loro massa elevata, hanno una bassa capacità di penetrazione nei materiali e possono essere bloccate da uno strato sottile di carta o tessuto.

Le radiazioni beta sono costituite da particelle cariche (elettroni o positroni) che si muovono ad alta velocità. Sono emesse da alcuni nuclei atomici instabili durante il decadimento radioattivo. Le radiazioni beta hanno una capacità maggiore di penetrazione rispetto alle radiazioni alfa, ma ancora limitata. Possono essere bloccate da uno spessore maggiore di materiale rispetto alle radiazioni alfa, come ad esempio un foglio di alluminio.

Le radiazioni gamma sono costituite da fotoni ad alta energia che non hanno carica elettrica. Sono prodotte dal decadimento dei nuclei atomici instabili e possono penetrare in profondità nei materiali. Le radiazioni gamma sono le più pericolose per la salute umana, poiché possono causare danni al DNA e aumentare il rischio di cancro.

Oltre ai tre tipi principali di radiazione ionizzante, esiste anche la radiazione neutronica, che è costituita da neutroni liberi ad alta energia. Questa forma di radiazione è prodotta durante alcune reazioni nucleari e ha una capacità elevata di penetrazione nei materiali.

L’effetto della radiazione ionizzante sul corpo umano dipende dalla quantità di energia assorbita e dalla durata dell’esposizione. L’esposizione a dosi elevate di radiazione ionizzante può causare danni ai tessuti, inclusa la mutazione delle cellule.

Come si misurano le radiazioni ionizzanti?

Ci sono diversi strumenti utilizzati per misurare le radiazioni ionizzanti. Il più comune è il dosimetro, che viene indossato dalle persone esposte alle radiazioni in modo da rilevare la quantità di radiazione a cui sono stati esposti. Questo strumento può essere utilizzato in ambienti di lavoro come centri medici o impianti nucleari dove il rischio di esposizione alle radiazioni è maggiore.

Un altro strumento utilizzato per misurare le radiazioni ionizzanti è il radiometro. Questo strumento viene utilizzato per rilevare la quantità di radiazione presente nell’ambiente circostante. È dotato di un sensore che rileva le particelle ionizzanti e di un display che mostra l’intensità della radiazione in tempo reale.

Esistono anche strumenti più sofisticati come i contatori Geiger-Muller, utilizzati soprattutto in ambito scientifico e industriale. Questi strumenti sono in grado di rilevare anche le particelle più piccole e possono essere utilizzati per monitorare la radioattività del suolo o dell’acqua.

Inoltre, è possibile misurare le radiazioni ionizzanti attraverso l’analisi di campioni biologici come il sangue o l’urina. Questa tecnica viene utilizzata soprattutto in ambito medico per monitorare l’esposizione a radiazioni ionizzanti da parte dei pazienti che si sottopongono a terapie radioterapiche.

Esposizione a radiazioni ionizzanti e protezione

Le radiazioni ionizzanti sono presenti in diversi ambienti e situazioni: nelle centrali nucleari, nei laboratori di ricerca o nelle industrie che utilizzano materiali radioattivi. Queste radiazioni sono prodotte da fonti come il plutonio, l’uranio o il cesio-137 e possono causare danni alla salute se non gestite correttamente.

Altri luoghi in cui si può essere esposti a radiazioni ionizzanti sono gli ospedali. Qui vengono utilizzate per diagnosticare e trattare alcune malattie, attraverso l’utilizzo di raggi X, tomografia computerizzata (TC) o radioterapia. Anche se queste tecniche possono salvare vite umane, la loro esposizione ripetuta può comportare rischi per la salute.

Anche gli ambienti esterni possono contenere radiazioni ionizzanti, ad esempio a causa di eventi naturali come le eruzioni vulcaniche o i terremoti. Inoltre, i raggi cosmici provenienti dallo spazio possono penetrare nell’atmosfera terrestre e causare esposizioni alle radiazioni ionizzanti.

Anche gli oggetti che ci circondano possono emettere radiazioni ionizzanti. Ad esempio, alcuni tipi di minerali contengono elementi radioattivi come il torio o l’uranio. Anche le lampade a basso consumo elettrico emettono radiazioni ionizzanti, sebbene in quantità molto ridotte.

Le radiazioni ionizzanti sono un rischio potenziale per la salute e per questo esiste una serie di misure di protezione e prevenzione per ridurre l’esposizione. In primo luogo, è importante limitare l’esposizione alle fonti di radiazione. Ad esempio, se si lavora in un ambiente in cui si utilizzano macchinari che emettono radiazioni ionizzanti, è importante indossare dispositivi di protezione come schermi protettivi o tute apposite.

In secondo luogo, è importante monitorare l’esposizione alle radiazioni ionizzanti. Questo può essere fatto attraverso la misurazione della dose di radiazione ricevuta dal corpo. Esistono strumenti specifici per questo scopo che possono essere utilizzati per monitorare l’esposizione alle radiazioni.


Stress lavoro correlato

Lo stress sul lavoro è una risposta fisiologica e psicologica a eventi stressanti sul luogo di lavoro. Può essere causato da una varietà di fattori, tra cui scadenze serrate, sovraccarico di lavoro, conflitti interpersonali, mancanza di controllo sul lavoro e mancanza di supporto dai colleghi o dal datore di lavoro. La valutazione dello stress lavoro correlato rientra tra gli obblighi del datore di lavoro.

stress-lavoro-correlato

Lo stress lavoro correlato può avere un impatto negativo sulla salute mentale e fisica dei lavoratori, oltre che sulla produttività aziendale. Pertanto, è importante valutare il rischio di stress lavoro correlato in azienda.

La valutazione del rischio stress lavoro correlato

La valutazione del rischio stress lavoro correlato è un processo fondamentale per garantire il benessere dei lavoratori e la salute dell’azienda che comprende diverse fasi. Nel valutare il rischio di stress lavoro correlato in azienda, è importante tenere in considerazione gli indicatori di stress da lavoro correlato di contenuto e di contesto.

Gli indicatori di contenuto riguardano il lavoro stesso, come la quantità di lavoro, la sua complessità, l’autonomia lavorativa, le scadenze strette, la ripetitività delle attività e la mancanza di controllo sul lavoro.

Gli indicatori di contesto, invece, si riferiscono all’ambiente e alle relazioni interpersonali sul posto di lavoro, come l’isolamento sociale, l’incertezza del ruolo lavorativo e la mancanza di supporto dai colleghi o dal datore di lavoro.

La valutazione dei due tipi di indicatori deve essere accurata e dettagliata al fine di identificare i lavoratori che sono più a rischio di sviluppare stress da lavoro correlato. In questo modo si possono pianificare gli interventi più adeguati per ridurre lo stress e migliorare il benessere dei dipendenti.

Fase propedeutica

La fase propedeutica prevede l’individuazione dei fattori di rischio presenti nell’organizzazione, dal contesto lavorativo alla gestione delle risorse umane, fino alla comunicazione interna ed esterna. In questa fase, infatti, si effettua una prima analisi della situazione aziendale, valutando le caratteristiche organizzative e produttive dell’azienda e raccogliendo informazioni sulle mansioni svolte dai dipendenti.

L’obiettivo principale è quello di individuare i possibili fattori di stress correlati alle attività lavorative. In questa fase, inoltre, si possono raccogliere dati sulla presenza di eventuali segnali di stress tra i dipendenti. È importante che la fase propedeutica venga condotta con attenzione e cura, in modo da avere un quadro completo della situazione lavorativa in cui si andrà a operare successivamente con le fasi successive della valutazione del rischio.

Fase della valutazione preliminare

La fase della valutazione preliminare approfondisce i fattori individuati nella fase precedente, analizzando le fonti di stress e le conseguenze sulle persone coinvolte. In questa fase, si procede alla raccolta delle informazioni necessarie attraverso l’analisi delle fonti di dati disponibili , quali documentazione aziendale, dati statistici sull’assenteismo, soddisfazione lavorativa, ecc., l’osservazione diretta dei luoghi di lavoro e degli ambienti in cui si svolgono le attività lavorative, nonché attraverso interviste ai lavoratori.

Raccolte le informazioni, queste vengono analizzate al fine di individuare i possibili fattori di rischio per lo stress lavoro correlato che possono essere di carattere organizzativo o psicosociale. In questa fase, è importante coinvolgere tutti gli attori interessati al fine di ottenere un quadro completo della situazione e garantire un approccio partecipativo alla gestione del rischio. La corretta valutazione preliminare permette di individuare tempestivamente i problemi e le aree critiche in cui intervenire per prevenire o ridurre lo stress lavoro correlato.

Fase della valutazione approfondita

Nella fase della valutazione approfondita si individuano gli indicatori di stress da lavoro correlato, sia di contenuto che di contesto, per comprendere meglio le cause del problema. I dati raccolti durante la valutazione preliminare vengono analizzati in modo più dettagliato e preciso per identificare le cause principali dello stress nei lavoratori dell’azienda.

Per svolgere al meglio questa attività, è necessario utilizzare strumenti specifici che consentano di raccogliere informazioni riguardanti le mansioni svolte, il contesto lavorativo e le relazioni interpersonali all’interno dell’organizzazione. La fase della valutazione approfondita permette di individuare gli aspetti critici del lavoro che possono generare stress e di definire gli obiettivi degli interventi da realizzare nella successiva fase di pianificazione.

Fase di pianificazione degli interventi

Infine si passa alla fase di pianificazione degli interventi, dove vengono individuate le soluzioni più adeguate per ridurre lo stress da lavoro correlato. Completate le fasi propedeutica, della valutazione preliminare e della valutazione approfondita, è il momento di elaborare un piano d’intervento personalizzato per ogni lavoratore o gruppo di lavoratori che presentano segni di stress correlato al lavoro. Questo piano deve essere basato sui risultati della valutazione del rischio e deve includere misure preventive e correttive adeguate alla situazione individuale.

La pianificazione degli interventi dovrebbe coinvolgere tutti i livelli gerarchici dell’azienda, in modo da garantire una collaborazione efficace tra il datore di lavoro e i dipendenti nella gestione dello stress lavoro-correlato. Inoltre, il piano d’intervento dovrebbe essere costantemente monitorato ed aggiornato in base ai feedback ricevuti dai lavoratori e all’evoluzione delle condizioni di lavoro all’interno dell’azienda. Solo attraverso una pianificazione attenta e mirata sarà possibile ridurre efficacemente lo stress lavoro-correlato e migliorare la qualità della vita dei lavoratori.

Gli indicatori di stress da lavoro possono essere ridotti tramite interventi mirati sulla comunicazione interna dell’azienda, sulla formazione dei dipendenti e sulla gestione del carico lavorativo.

Come ridurre lo stress da lavoro correlato?

Per ridurre lo stress da lavoro correlato, esistono diverse strategie che possono essere adottate sia a livello individuale sia aziendale. Innanzitutto, una gestione efficace del tempo in modo efficace è essenziale per organizzare le attività in modo da evitare sovraccarichi di lavoro e stress. A livello aziendale, una buona comunicazione tra i colleghi contribuisce a creare un ambiente di lavoro più sereno e collaborativo.


Il rischio elettrico

La valutazione del rischio elettrico: definizione, normativa, effetti, obblighi del datore di lavoro

Il rischio elettrico rappresenta uno dei principali pericoli presenti in numerosi ambienti di lavoro. Esso consiste nella possibilità di subire un contatto diretto o indiretto con l’elettricità, che può avere effetti devastanti sulla salute dei lavoratori coinvolti.

Il D.Lgs. 81/08 definisce il rischio elettrico come la possibilità che una persona entri in contatto con parti elettriche sotto tensione direttamente o indirettamente, a causa della presenza di un potenziale elettrico pericoloso. Il D.Lgs. 81/08 prevede l’obbligo per il datore di lavoro di valutare il rischio elettrico presente nei luoghi di lavoro e di adottare tutte le misure necessarie per garantire la sicurezza dei lavoratori.

rischio-elettrico


Tra le misure obbligatorie previste dalla legge, troviamo la messa a terra delle parti attive, l’installazione di dispositivi differenziali sensibili alla corrente residua, l’utilizzo di strumenti e attrezzature idonee al lavoro da svolgere ed adeguatamente manutenute.

Gli effetti del rischio elettrico possono essere estremamente gravi: shock elettrici, ustioni, fibrillazione ventricolare e arresto cardiocircolatorio sono solo alcuni degli esempi. Proprio per questo motivo, il datore di lavoro è tenuto a fornire ai propri dipendenti le informazioni e la formazione necessarie per evitare il rischio di incidenti.

In particolare, la normativa prevede l’obbligo per il datore di lavoro di istruire i lavoratori sui rischi elettrici presenti nel posto di lavoro, sulle misure di prevenzione adottate dall’azienda e sulle procedure da seguire in caso di emergenza.

La normativa sul rischio elettrico

La normativa italiana di riferimento è costituita dal D.Lgs. 81/08 e dalla Norma CEI 11-27, che definisce le prescrizioni di sicurezza per la progettazione, l’installazione, la gestione e la manutenzione degli impianti elettrici e delle apparecchiature a bassa tensione. Questa norma fornisce le indicazioni per la valutazione dei rischi legati all’elettricità, la definizione delle misure di prevenzione e protezione e le prescrizioni per la verifica periodica degli impianti.

In breve la normativa prevede che i lavoratori che operano in presenza di corrente elettrica debbano essere adeguatamente formati e informati sui rischi connessi all’uso dell’elettricità. Inoltre, le attrezzature e gli impianti elettrici devono essere progettati, installati e mantenuti in modo da garantire la massima sicurezza per gli operatori. Si prevede inoltre anche l’obbligo di effettuare periodicamente verifiche tecniche sulla funzionalità degli impianti elettrici per prevenire eventuali guasti o malfunzionamenti che potrebbero causare incidenti.

Per quanto riguarda la protezione dei lavoratori da scariche elettriche, la normativa impone l’utilizzo di idonei DPI come guanti isolanti, calzature antinfortunistiche e caschi protettivi. Inoltre, i lavoratori devono essere dotati di strumenti adeguati per l’intervento in caso di emergenza, come estintori, kit per il primo soccorso e telefoni antideflagranti.

La valutazione del rischio elettrico

Il rischio elettrico è un pericolo sempre presente in ogni ambiente lavorativo dove si utilizza l’energia elettrica. La valutazione del rischio elettrico è un’attività fondamentale per prevenire gli incidenti sul lavoro legati all’elettricità. Questa valutazione consiste nell’identificare, valutare e gestire i pericoli elettrici presenti in un ambiente di lavoro, al fine di garantire la sicurezza dei lavoratori.

1. Identificazione dei pericoli

In primo luogo, identificare le aree in cui c’è un alto rischio di fulminazione, comprese le aree in cui sono presenti apparecchiature elettriche ad alta tensione, come i componenti del sistema di alimentazione elettrica.

2. Valutazione del rischio

Identificate le aree a rischio, si valuta il livello di rischio associato a ciascuna area. Ciò include la valutazione del potenziale di tensione elettrica, la frequenza delle tempeste e il tipo di terreno circostante.

3. Determinazione delle misure preventive

Sulla base della valutazione del rischio, si delineano le misure preventive da adottare per minimizzare il rischio. Tali misure possono includere la creazione di procedure operative standard, l’utilizzo di dispositivi di protezione personali o la modifica dell’ambiente di lavoro in modo da ridurre il rischio di incidenti. un piano per ridurre il rischio di fulminazione.

4. Monitoraggio

Infine, è importante monitorare regolarmente il piano per assicurarsi che sia efficace nel ridurre il rischio di fulminazione attraverso una revisione periodica e l’aggiornamento in base alle nuove informazioni sul rischio.

L’impianto di protezione da scariche atmosferiche

L’impianto di protezione da scariche atmosferiche, noto comunemente come parafulmine, è un sistema installato sulle strutture per prevenire i danni causati dalle scariche elettriche atmosferiche durante le tempeste. L’impianto funziona disperdendo la carica elettrica generata dalla scarica atmosferica nel terreno attraverso un sistema di conduttori elettrici.

L’installazione del parafulmine garantisce la sicurezza delle persone all’interno delle strutture proteggendo impianti elettrici e apparecchiature elettroniche dai danni causati dalle scariche.

Conclusione

In conclusione, la valutazione del rischio fulminazione è importante per ridurre il rischio di fulminazione in un’area specifica. Seguendo i passaggi sopra descritti, è possibile sviluppare un piano efficace per ridurre il rischio e garantire la sicurezza del personale che lavora con l’elettricità.


 


Il DUVRI

Che cos’è il DUVRI e come deve essere redatto

Il DUVRI, Documento Unico di Valutazione dei Rischi Interferenziali, è quel documento che identifica e valuta i rischi negli ambienti di lavoro durante un appalto. Ha lo scopo di eliminare o ridurre al minimo le interferenze che possono derivare dalle attività delle imprese coinvolte ed è regolamentato dall’art. 26 del D.Lgs. 81/08.

La responsabilità della redazione del DUVRI è del datore di lavoro committente e non delle imprese o dei lavoratori autonomi a cui è stato affidato il contratto. Tuttavia, essi sono comunque tenuti a collaborare e a fornire tutti i documenti necessari per evidenziare i possibili rischi. Il DUVRI deve essere predisposto o aggiornato ogni volta che vengono stipulati nuovi contratti.

Il DUVRI non è necessario per i cantieri in cui il PSC o Piano di Sicurezza e Coordinamento è già stato predisposto e accettato dalle Imprese esecutrici. In questi casi, le Imprese esecutrici del cantiere devono predisporre il Piano Operativo di Sicurezza (POS) in quanto i rischi da interferenze sono già stati affrontati dal PSC. Il DUVRI deve essere predisposto solo nelle situazioni in cui è possibile eliminare o ridurre i rischi da interferenza tra i lavoratori del Committente e quelli delle Imprese appaltatrici. Se ciò non è possibile, il DUVRI consisterà in una dichiarazione del DLC che formalizzi l’impossibilità di eliminare o ridurre tali rischi, insieme a specifiche giustificazioni del caso. In questi casi, le decisioni prese durante la riunione di coordinamento tra tutti i datori di lavoro coinvolti, in primis il Datore di Lavoro, saranno fondamentali per garantire la sicurezza. È importante notare che il DUVRI è un obbligo del datore di lavoro, ma la sua redazione può essere delegato a terzi.

Quando deve essere redatto

Secondo l’art. 26 del D.Lgs. 81/08 si ha l’obbligo di redigere il DUVRI quando il Datore di lavoro di un’azienda committente affida lo svolgimento di lavori o servizi all’interno del proprio luogo di lavoro ad un’impresa appaltatrice o lavoratori autonomi. Ma non deve essere redatto per:

  • servizi di natura intellettuale,
  • mere forniture di materiali,
  • lavori o servizi di durata inferiore a 5 uomini-giorno,
  • se è presente il Piano di Sicurezza in fase di Coordinamento.

L’art. 29 ci informa inoltre degli obblighi ovvero:

  • informazione: riguarda l’obbligo di informare l’azienda appaltatrice sulle caratteristiche del contesto in cui opererà,
  • coordinamento: si riferisce a quelle azioni che il datore di lavoro dell’azienda committente deve intraprendere
  • per evitare che si verifichino disaccordi, sovrapposizioni e altri eventi che possano nuocere alla sicurezza,
  • cooperazione: significa che sia il datore di lavoro committente sia il datore di lavoro esecutore devono contribuire alla predisposizione ed applicazione delle necessarie misure di prevenzione e protezione

I rischi da interferenza

I rischi da interferenza sono classificati in rischi immessi nel luogo di lavoro del committente dalle lavorazioni dell’appaltatore (rischi in entrata) e in rischi specifici presenti nella normale attività del committente, non presenti normalmente nell’attività dell’appaltatore (rischi in uscita).

I rischi da contiguità fisica e di spazio sono quei rischi che derivano da sovrapposizioni di più attività svolte da
diversi appaltatori, mentre i rischi da commissione derivano da modalità di esecuzione particolari, richieste dal committente.

Le caratteristiche del DUVRI

Il DUVRI si deve integrare con il DVR, pur essendo da esso indipendente; deve essere finalizzato a gestire i rischi interferenziali e essere unico per tutti gli appalti che comportano rischi tra loro interferenti.

Per quanto riguarda i contenuti minimi:

  • devono essere identificati i criteri utilizzati,
  • deve esserci una descrizione dell’azienda committente e delle attività che si svolgono durante l’appalto,
  • devono essere descritte le attività degli appaltatori e delle zone di lavoro a loro disposizione.

Inoltre deve esserci:

  • il cronoprogramma delle attività,
  • l’organizzazione delle misure di prevenzione e protezione da adottare,
  • il computo estimativo dei costi della sicurezza,
  • il coordinamento delle fasi lavorative.

Aggiornamento del DUVRI

Quando è necessario un aggiornamento del DUVRI il datore di lavoro committente deve convocare una riunione di coordinamento con gli operatori coinvolti per individuare le misure migliorative. Alcuni contratti possono essere interessati e quindi adeguati rideterminando anche i costi della sicurezza oppure può rendersi necessaria la stipula di un nuovo contratto.


Il formatore per la sicurezza

Quali sono i requisiti di un Formatore per la Sicurezza?

Un formatore per la sicurezza certificato è uno specialista che possiede le conoscenze e le competenze necessarie per svolgere attività di docenza. È addestrato a identificare i potenziali pericoli, a valutare i rischi e a progettare programmi di formazione sulla sicurezza su misura per le esigenze specifiche di un’azienda.

formatore-sicurezza

La figura del Formatore per la Sicurezza è regolamentata dal D.Lgs. 81/08 e dal D.I. 6 marzo 2013. Quest’ultimo stabilisce i requisiti che i formatori per la sicurezza devono possedere e individua tre diverse aree tematiche attinenti alla salute e sicurezza sul lavoro:

  • area normativa/giuridica/organizzativa,
  • area rischi tecnici/igienico-sanitari,
  • area relazioni/comunicazioni.

Il Formatore per la Sicurezza qualificato

Il Formatore in materia di sicurezza qualificato è il docente che possiede il prerequisito ed almeno uno dei criteri indicati dal D.I. 6 marzo 2013. Il prerequisito è il diploma di scuola secondaria di secondo grado.

Tra le domande che più spesso vengono poste è se l’RSPP è anche un formatore qualificato e la risposta è sì se rispetta quanto indicato dal criterio 6 ovvero: esperienza pregressa come RSPP di almeno 6 mesi o come ASPP di almeno 12 mesi insieme a una delle seguenti specifiche:

  • percorso formativo in didattica di durata minima di 24 ore;
  • esperienza pregressa come docente di almeno 32 ore negli ultimi 3 anni come docente in materia di sicurezza;
  • esperienza pregressa come docente di almeno 40 ore negli ultimi 3 anni come docente in qualsiasi materia;
  • corsi formativi in affiancamento a un docente di almeno 48 ore negli ultimi 3 anni come docente in qualsiasi materia.

Il criterio 5 è utile per definire il formatore qualificato nel caso in cui il candidato formatore per la sicurezza abbia esperienza lavorativa almeno triennale in salute e sicurezza nei luoghi di lavoro insieme a una delle specifiche viste sopra per il criterio 6.

Il progettista della formazione

Chi progetta un corso di formazione non solo deve possedere le competenze necessarie sull’argomento, ma deve avere anche competenze didattiche che permettano di ottimizzare il percorso di apprendimento. Un intervento formativo parte dalle esigenze, viene poi progettato e successivamente realizzato con una valutazione finale. Il processo formativo è quindi costituito da quattro fasi: analisi, progettazione, realizzazione e valutazione. A seconda poi del tipo di corso è utile che siano integrati tra loro lezioni, esercitazioni e simulazioni.