Jag har experimenterat med min pi och kameramodulen avsedd för den. Hittills med en enda kamera har saker varit fantastiska. Jag började med min egen kod i python med 'picamera' gränssnittet. Med tiden insåg jag att andra hade gjort mycket av arbetet för mig.
På senare tid har jag använt ccrisans motioneye-kod, som använder mmal och rörelse i bakgrunden.
Min fråga är denna. Jag planerar att ha 4-6 kameror igång någon gång som lagrar stillbilder var tredje sekund på min nätverksserver (körande fönster).
Mycket av begränsningarna med denna inställning är på hallon-pi-sidan. Att köra en webbserver, rörelse och gränssnitt för att strömma data.
Finns det inte något sätt som streaming kan komma från min mycket kraftfullare Windows-server, medan allt som kamerorna behöver göra är att koda och överföra data. Jag har inte mycket kunskap om hur kameranätverk utformas arkitektoniskt.
tack
EDIT: Jag använder RPI B och RPI B (begränsad ram) med raspbian lite (jessie)