Dans ce tutoriel, nous allons écrire un programme qui émet des sons servant à accorder une guitare. Nous allons apprendre comment :
créer un projet basique dans Anjuta,
créer une interface graphique simple avec le concepteur d'interface utilisateur d'Anjuta,
utiliser GStreamer pour émettre des sons.
Vous avez besoin de ce qui suit pour pouvoir suivre ce tutoriel :
l'installation du paquet Anjuta IDE,
des connaissances de base de la programmation en langage C++.
Avant de commencer à programmer, vous devez ouvrir un nouveau projet dans Anjuta. Ceci crée tous les fichiers qui vous sont nécessaires pour construire et exécuter votre programme plus tard. C'est aussi utile pour tout regrouper en un seul endroit.
Lancez Anjuta et cliquez sur
Sélectionnez
Assurez-vous que
Cliquez sur
#include ]]>
C'est un programme C++ très basique pour configurer GTKmm. Vous trouverez plus de détails ci-dessous ; passez cette liste si vous comprenez les bases :
Les trois lignes #include
du haut incorporent les bibliothèques config
(définitions utiles pour la construction autoconf), gtkmm
(interface utilisateur) et iostream
(STL). Les fonctions de ces bibliothèques seront utilisées dans le reste du programme.
La fonction main
crée une nouvelle fenêtre en ouvrant un fichier GtkBuilder (
Ensuite quelques fonctions sont appelées pour configurer puis exécuter l'application. La fonction kit.run
démarre la boucle principale de GTKmm qui affiche l'interface utilisateur et commence à écouter les événements (comme des clics de souris ou des appuis sur des touches).
Le programme est prêt à être utilisé, donc vous pouvez le compiler en cliquant sur
Cliquez sur
Une description de l'interface utilisateur est contenue dans le fichier GtkBuilder. Pour la modifier, ouvrez le fichier
La disposition de toute interface utilisateur dans GTK+ est organisée à l'aide de boîtes et de tableaux. Dans cet exemple, prenons une
Choisissez une
Ensuite, choisissez un
Pendant que le bouton est encore sélectionné, modifiez la propriété
Répétez cette procédure pour les autres boutons, en ajoutant les 5 cordes suivantes avec les étiquettes A, D, G, B et e et les noms des bouton_A, etc. correspondants.
Enregistrez le fichier de conception de l'interface utilisateur (en cliquant sur
GStreamer est l'architecture multimédia de GNOME — vous pouvez vous en servir pour des jeux, des enregistrements, pour traiter des flux vidéo, audio, de webcam entre autres. Ici, nous allons nous en servir pour émettre des tonalités à une seule fréquence. GStreamermm est le lien C++ à GStreamer que nous utilisons dans cet exemple.
Le concept de GStreamer est le suivant : il y a création d'un pipeline contenant plusieurs éléments de traitement en provenance d'une source à destination d'un collecteur (sortie). La source peut être un fichier image, une vidéo ou un fichier musical, par exemple, et la sortie un élément graphique ou une carte son.
Entre la source et le collecteur, vous pouvez appliquer différents filtres et convertisseurs pour prendre en charge les effets, les conversions de format et ainsi de suite. Chaque élément du pipeline possède des propriétés pouvant être utilisées pour modifier son comportement.
Un exemple de pipeline GStreamer.
Pour utiliser GStreamermm, il faut l'initialiser. Ajoutez la ligne de code suivante en dessous de la ligne Gtk::Main kit(argc, argv);
du fichier
Gst::init (argc, argv);
Vérifiez que le fichier
Dans ce petit exemple, nous utilisons une source génératrice de son de fréquence pure appelée audiotestsrc
et envoyons sa sortie au périphérique son par défaut du système, autoaudiosink
. Il nous faut seulement configurer la fréquence du générateur accessible depuis la propriété freq
de audiotestsrc
.
Pour simplifier la gestion du pipeline, nous définissons une classe assistant Sound
. Ceci est réalisé dans le fichier
m_pipeline;
Glib::RefPtr m_source;
Glib::RefPtr m_sink;
};
Sound::Sound()
{
m_pipeline = Gst::Pipeline::create("note");
m_source = Gst::ElementFactory::create_element("audiotestsrc",
"source");
m_sink = Gst::ElementFactory::create_element("autoaudiosink",
"output");
m_pipeline->add(m_source);
m_pipeline->add(m_sink);
m_source->link(m_sink);
}
void Sound::start_playing (double frequency)
{
m_source->set_property("freq", frequency);
m_pipeline->set_state(Gst::STATE_PLAYING);
/* stop it after 200ms */
Glib::signal_timeout().connect(sigc::mem_fun(*this, &Sound::stop_playing),
200);
}
bool Sound::stop_playing()
{
m_pipeline->set_state(Gst::STATE_NULL);
return false;
}
]]>
L'objectif du programme est le suivant :
Le constructeur crée les éléments GStreamer source et sink (collecteur) (Gst.Element
) et un élément pipeline (qui sera utilisé comme conteneur pour les deux autres). Le pipeline est nommé « note » ; la source est nommée « source » et définie comme étant le connecteur audiotestsrc
et le collecteur est nommé « output » et défini comme étant le connecteur autoaudiosink
(qui est la sortie par défaut de la carte son). Après avoir lié entre eux et ajouté les éléments au pipeline, il est prêt à fonctionner.
start_playing
définit l'élément source à une fréquence donnée et démarre réellement le pipeline pour commencer à diffuser le son. Comme nous ne voulons pas jouer indéfiniment une note ennuyeuse, un délai de 200 ms est défini avant d'interrompre le pipeline en appelant la fonction stop_playing
.
Dans stop_playing
, après que la durée soit échue, le pipeline s'arrête et donc il n'y a plus de sortie son. Comme GStreamer utilise le comptage des références à l'objet Glib::RefPtr
, la mémoire est automatiquement libérée dès que la classe Sound
est détruite.
Nous voulons jouer la note adéquate quand l'utilisateur clique sur un bouton. Cela signifie que nous devons connecter le signal émis par ce bouton. Nous voulons aussi informer la fonction appelée du son à diffuser. GTKmm rend la chose facile car il est facile de lier des informations avec la bibliothèque sigc.
La fonction appelée lors d'un clic sur un bouton peut être très simple, car tout le travail intéressant se fait maintenant dans la classe assistant :
start_playing (frequency);
}
]]>
Elle ne fait qu'appeler la classe assistant que nous avons configurée auparavant pour diffuser la fréquence appropriée. Avec un programme un peu plus malin, nous aurions pu aussi nous connecter directement à la classe sans passer par la fonction, mais laissons cela pour un exercice futur.
Le code qui configure les signaux doit être ajouté à la fonction main()
, juste après la ligne builder->get_widget("main_window",main_win);
:
get_widget("button_E", button);
button->signal_clicked().connect (sigc::bind(sigc::ptr_fun(&on_button_clicked),
329.63, &sound));
]]>
D'abord, nous créons une instance de notre classe assistant que nous voulons maintenant utiliser et déclarons une variable pour le bouton que nous voulons connecter.
Ensuite, nous récupérons l'objet bouton de l'interface utilisateur qui a été créé à partir du fichier de l'interface utilisateur. Souvenez-vous que bouton_E est le nom que nous avons donné au premier bouton.
Enfin, nous connectons le signal clicked. Il est vrai que cela ne paraît pas très simple car nous prenons beaucoup de précautions sur le type des variables et que nous désirons en réalité transmettre notre classe assistant et la fréquence au récepteur de signal. sigc::ptr_fun(&on_button_clicked)
crée un connecteur pour la méthode on_button_clicked
définie plus haut. Nous pouvons transmettre d'autres arguments avec sigc::bind
et dans notre exemple, nous transmettons la fréquence (de type « double ») et notre classe assistant.
Après avoir configuré le bouton E, nous devons connecter les autres boutons en fonction de leur fréquence : 440 pour A, 587,33 pour D, 783,99 pour G, 987,77 pour B et 1318,5 pour E aiguë. Le processus est le même, seule la fréquence transmise au récepteur change.
À ce stade, tout le programme est fonctionnel. Cliquez sur
Si ce n'est déjà fait, choisissez l'application
Si vous rencontrez des difficultés avec ce tutoriel, comparez votre programme à ce programme de référence.
Pour des informations plus détaillées sur les exemples ci-dessus, consultez le manuel de GTKmm qui couvre beaucoup plus de sujets clés pour utiliser toute la puissance de GTKmm, ainsi que la documentation de référence de gstreamermm.
Voici quelques idées sur la manière d'étendre ce simple exemple :
Faire que le programme joue automatiquement les notes de manière cyclique.
Faire que le programme lise des enregistrements de vraies cordes de guitare pincées.
Pour y parvenir, vous devrez configurer un pipeline GStreamer un peu plus sophistiqué qui vous permette de charger et lire des fichiers musicaux. Vous devrez choisir des éléments GStreamer décodeur et démuxeur basés sur le format des sons enregistrés — par exemple, les MP3 utilisent des éléments différents de ceux des fichiers Ogg Vorbis.
Il vous faudra aussi peut-être connecter les éléments de façon plus complexe. Vous aurez sans doute besoin de consulter les concepts GStreamer que nous ne couvrons pas dans ce tutoriel, comme les pads. La commande
Analyser automatiquement les notes jouées par l'utilisateur.
Vous pourriez branchez un microphone et enregistrez les sons obtenus en utilisant l'entrée source. Peut-être qu'une espèce d'analyseur de spectre peut vous aider à trouver les notes jouées ?