Originariamente inviato da ardito86
Ok, sono tutti dei layer. Quello che mi chiedo: quando un applicazione qualsiasi, ovvero un qualsia player, per esempio VLC, "suona" una canzone su linux, che interfaccia usa fra queste?
Attualmente praticamente ogni applicazione supporta più di un layer in uscita. VLC supporta sia ALSA che OSS che PulseAudio (credo che di default usi PulseAudio, poi ALSA, poi OSS). È questo l'assurdo a cui siamo arrivati.

Ah dimenticavo, le applicazioni Gnome hanno un ulteriore layer: GStreamer (che in verità oltre a gestire l'audio fa molte altre cose in maniera molto flessibile). Rhythmbox, Totem & co. parlano con GStreamer, che a sua volta ha un'impostazione (modificabile con il "Selettore sistemi audio" o da gconf) che gli indica i sink predefiniti (anche qui, sono supportati PulseAudio, OSS e ALSA).
Se OSS non è più supportato da linux, perché converrebbe scrivere applicazioni per OSS?
Perché per il resto del mondo UNIX (FreeBSD, Solaris & co.) esiste solo OSS; perché anche su Linux bene o male OSS lo trovi sempre (c'è OSS 4, c'è l'emulazione OSS sia di ALSA che di PulseAudio); perché le interfacce di OSS sono più comode e meglio documentate di quelle ALSA.