Chargement ...
Désolé, une erreur est survenue lors du chargement du contenu.

Les langues africaines à l'ère du numérique

Agrandir la zone des messages
  • bisharat_point_net
    Bonjour, J ai du mentionner la sortie cette année de la traduction du livre African Languages in a Digital Age, qui a pour titre: Les langues africaines à
    Message 1 de 6 , 24 dc. 2011
    Afficher la source
    • 0 Pièce jointe
      Bonjour,

      J'ai du mentionner la sortie cette année de la traduction du livre "African Languages in a Digital Age," qui a pour titre:

      "Les langues africaines à l'ère du numérique. Défis et opportunités de l'informatisation des langues autochtones"

      Je voudrais solliciter vos réactions et commentaires sur le contenu de cette étude sur la localisation des TIC en Afrique.

      * Version en ligne: http://web.idrc.ca/openebooks/496-3/

      * Infos sur le livre: http://www.pulaval.com/catalogue/les-langues-africaines-ere-numerique-defis-9687.html

      Merci d'avance, et meilleurs voeux pour les fêtes et pour une bonne et heureuse nouvelle année 2012!

      Don
    • ibrahima condé
      SIMBONSI 2011 : N’KO DOUMBOU commémore le 24ème  anniversaire de la Mort de Solomana Kanté (1922-1987), inventeur de l’Alphabet N’ko : Le dimanche
      Message 2 de 6 , 2 janv. 2012
      Afficher la source
      • 0 Pièce jointe
        SIMBONSI
        2011 :

        N’KO DOUMBOU
        commémore le 24ème  anniversaire de la
        Mort de Solomana Kanté (1922-1987), inventeur de l’Alphabet N’ko :

        Le dimanche 25 décembre 2011 au
        siège de la coordination mandingue à Conakry, capitale de la République de Guinée, N’ko Doumbou (Académie N’ko) a
        commémoré en différé le 24ème anniversaire du décès du scientifique et savant
        africain Solomana Kanté.

        La cérémonie, commencée à 10H30
        s’étant poursuivie jusqu’à 13H00, a vu la participation de plusieurs
        personnalités de l’Etat dont entre autres, Général Bouréma CONDE, chef d’état
        major particulier à la Présidence, Mamadouba TOS CAMARA, vice - maire de Matoto
        et Dr Moussa CISSE, Directeur du Bureau de Presse de la Présidence de la
        République. Plusieurs centaines de personnes composées d’intellectuels,
        d’Hommes de culture, de journalistes et de sympathisants de l’écriture N’ko
        ainsi que deux Représentants de la coopération européenne et Russe ont
        participé à l’événement aux côtés des sages de la Coordination Mandingue.

        A l’ordre du jour, déclamation de
        poèmes en N’ko et plusieurs témoignages sur la vie de l’inventeur de l’alphabet
        N’ko.

         Mr Haya Mady SYLLA, Secrétaire Général de
        l’Académie N’ko, a dans son allocution de bienvenue, expliqué la signification
        et la portée de l’événement « simbonsi = anniversaire » aussi
        bien pour l’Afrique que pour la Guinée. Il a énuméré les récents progrès de
        l’alphabet N’ko en Guinée comme l’insertion de l’enseignement de l’Alphabet
        N’ko à l’Université de Kankan, l’ouverture d’une émission de promotion de
        l’Alphabet N’ko à la Radio Télévision Nationale, la création du journal  SEKUTUREYA INFO, publié par le Bureau de
        Presse à la Présidence, en Français, en anglais, en Arabe et en N’ko. Il a
        toutefois déploré les lenteurs survenues dans la création d’un Centre de
        Recherche et de Vulgarisation de l’écriture N’ko.

        Mr Mohamed Lamine KEITA, Secrétaire
        des Relations Extérieures de l’Académie N’ko, a expliqué à l’auditoire toute la
        genèse de l’écriture N’ko. Cette genèse de l’écriture N’ko qui a pour décor
        Bouaké, ville du centre de la Côte d’Ivoire, où Solomana KANTE lut un journal
        arabophone libanais en 1944. Un article qui critiquait le peu d’engouement des
        noirs pour la transcription des langues africaines. Cet article était l’œuvre
        de l’ethnologue libanais Kamal MARWA. Selon KEITA, c’est le point de départ des
        recherches de KANTE qui œuvra inlassablement à faire des essais de
        transcription de sa langue maternelle maninka en Arabe, en latin, puis
        finalement l’invention de l’Alphabet N’ko intervient le 14 avril 1949 à Binger
        ville, ville située près de Abidjan. Il s’en est suivi 38 ans de recherches
        intenses au cours desquelles  il
        produisit 183 livres ; ce qui fait une moyenne de près de 5 livres par an.

        Selon Nafadji Sory CONDE, Secrétaire
        à la Recherche Scientifique de l’Académie N’ko interviewée par la Télévision
        Nationale, Solomana KANTE n’est pas à la fois un savant dont l’œuvre s’arrête à
        l’invention de l’alphabet N’ko, il a été à la base des ouvrages scientifiques,
        théologiques, littéraires, linguistiques, philosophiques et thérapeutiques.
        C’est à cause de l’envergure scientifique de sa personnalité que le fondateur
        de l’Alphabet N’ko est considéré à juste titre par les chercheurs occidentaux
        comme un encyclopédiste du type du siècle des lumières en Europe.

        L’autre temps fort de ce simbossi
        2011, a été la remise de certains prix à des nominés. Les attributions
        des prix (köndön) 2010 et 2011 ont concerné 10 personnes dont trois étrangers
        (un irlandais, un américain et un malien) ; selon le secrétaire à la
        recherche Scientifique de l’Académie N’ko qui a procédé à la remise des köndön,
        la nomination de ces étrangers s’explique par le caractère de plus en plus
        international de l’expansion de l’alphabet N’ko.

        Le founounsséré köndön 2010
        (Prix de la Générosité) a été attribué à Mr Mohamed SANOH, cadre et
        intellectuel guinéen pour son soutien financier et logistique à l’Académie N’ko
        tandis que le founounsséré köndön 2011 a été discerné à l’opérateur
        économique Sidiki NABE pour son appui financier à l’introduction du N’ko dans
        les téléphones I-Phone et les appareils I-Pad.

        Le koussantaadi köndön 2010 (Prix
        de l’Innovation) a été partagé entre deux lauréats : l’Irlandais Michael
        EVERSON pour le codage de l’écriture N’ko en 2005 dans l’Unicode et la création
        de polices d’ordinateurs N’ko pour les programmes Linux et Macintosh ;
        l’autre nominé du koussantaadi köndön 2010 est le chercheur et
        tradithérapeute guinéen Fodé CISSE pour avoir inventé un compresseur de
        comprimé et un séchoir de médicament.

        Quand au koussantaadi köndön 2011 (Prix de l’Innovation), il
        est revenu lui aussi à deux nominés : Mr HOWARD GUTOWITZ, Citoyen américain travaillant au compte de l’Entreprise
        EATONI de Manhattan (New-York) pour  la conception en 2011 de
        L’APPLICATION NUMERIQUE « TwTool N’KO » compatible avec les programmes de   I-Phone, de I-Pad et du Macintosh ; le
        second nominé du koussantaadi köndön 2011 est le Guinéen Sèbè
        MARA, spécialiste de l’informatique bureautique en N’ko, pour l’amélioration
        des styles du Word Art pour les journaux écrits et de la montre pendule en
        N’ko.

         

        Un autre grand köndön (prix) que l’Académie N’ko a attribué pour
        l’édition 2010 est le signana köndön 2010 (Prix de Veil) partagé par
        deux écrivains : le guinéen El hadj Sékou TOUNKARA, résidant à Dabola,
        pour son livre de calcul en N’ko publié en 1998, la biographie romancée
        du premier premier ministre congolais Patrice LUMUMBA en 2003 et le Portrait
        historique du président Ahmed Sékou TOURE en 2009 ; l’autre nominé du signana
        köndön 2010 a été le guinéen Bentou Bakary KABA pour la publication de
        trois livres en N’ko :l’explication
        et interprétation des chansons du mande, l’histoire de wankaradou, ainsi que
        la dance folklorique du soli.

         

        Quand au signana köndön 2011(Prix de Veil), il est
        revenu à l’écrivain malien  Mr Mahamoud SANGARE, résidant à Bamako, pour avoir publié en dix ans
        (2001-2011) une vingtaine d’ouvrages en N’ko, dont entre autres : les
        ouvrages de développement rural, les romans-photos  et une adaptation de
        la légende du serpent-boa de wagadougou (ancien Ghana).

        La plus grande distinction de N’ko
        Doumbou (Académie N’ko) est le Solomana Kanté köndön ou prix Solomana
        KANTE. Professeur BABA MAMADI DIANE, Professeur de N’ko à l’Université
        du Caire, s’est vu décerné le Solomana Kanté köndön, pour l’ensemble des œuvres qu’il a accompli en N’ko, dont entre 
        autres : LE DICTIONNAIRE ARABE-N’KO, LA GRAMMAIRE SIMPLIFIEE, ET
        LE VOCABULAIRE ORTHOGRAPHIQUE MANTAAYA. Compte tenu de l’immense portée de
        ces œuvres pour la Culture, la Littérature 
        et la Science, ce Prix lui a été décerné 
        par le conseil académique de l’Alphabet N’ko.

         

        Le simbonsi 2011  s’est achevé par les témoignages des
        participants et les bénédictions des sages qui ont prié non seulement pour le
        repos de l’illustre africain que fut Solomana KANTE, mais aussi pour le
        rayonnement du N’ko, des langues nationales et des cultures africaines.

         

        Compte-rendu
        de Nafadji Sory CONDE (Tel 62 20 52 82), Secrétaire à la Recherche Scientifique
        de N’ko Doumbou









        [Les parties de ce message comportant autre chose que du texte seul ont été supprimées]
      • Patrick
        http://www.journaldugeek.com/2012/02/09/des-accents-prochainement-dans-les-noms-de-domaine-en-fr/
        Message 3 de 6 , 29 avr. 14:02
        Afficher la source
        • 0 Pièce jointe
        • Philippe Verdy
          Parmi les 30 caractères annoncés, on trouve tous les caractères manquants pour le français: à, â, å, æ, ç, è, é, ê, ë, î, ï, ô, ö, œ, ù, û,
          Message 4 de 6 , 30 avr. 11:48
          Afficher la source
          • 0 Pièce jointe
            Parmi les 30 caractères annoncés, on trouve tous les caractères
            manquants pour le français:

            à, â, å, æ, ç, è, é, ê, ë, î, ï, ô, ö, œ, ù, û, ü, ÿ

            Mais bizarrement aussi des lettres avec tilde et accent aigu qui
            n'existent pas en français usuel, mais seulement dans des
            romanisations ou des toponymes et noms de familles non français :

            á, ã, ä, ç, í, ì, ñ, ó, õ, ò, ú, ý.

            Ceux avec accents aigus ne peuvent même pas être tapés sur un clavier
            français standard. Bizarrement ý et ì ne semble nécessaire à personne
            en France...

            On se demande si ceux-là ne sont pas faits en fait pour l’occitan
            (provençal ?) ou le catalan (mais alors il manque le l avec point
            median pour le catalan) et le basque, ou encore l'italien (pour
            certains noms frontaliers, ou là encore en occitan ligurien, aussi
            parlé officiellement à Monaco et dans les communes française proches
            anciennement monégasques entre la principauté et la frontière
            italienne) ou le corse.

            Les lettres avec tilde semblent faites pour le breton, pas de problème
            puisqu'on peut les taper sur un clavier français usuel. Le ß semble là
            pour l'alsacien (mais avec un clavier allemand...).

            On se demande quelles langues en dehors du français ont été acceptées
            puisque la modif concerne non seulement le .FR mais aussi quelques
            autres DOM (pas tous: Martinique, Guyane, Guadeloupe non encore
            définis) et d'autres collectivités d'outre-mer (mais pas toutes
            Polynésie française, Wallis et Futuna, et Nouvelle-Calédonie ne sont
            pas dans le lot, sans doute car ce n'est pas l'AFNIC qui gère ces
            ccTLD mais des NIC locaux : donc pas de support complet du tahitien ou
            du wallisien par exemple).

            On peut regretter les romanisations du latin (il manque la brève mais
            surtout le macron sur les voyelles de base a e i o u, même si parfois
            le macron est remplacé par le circonflexe mais cet ancien usage
            d'adaptation n'est plus recommandé, d'autant plus qu'on a souvent
            besoin de distinguer voyelles ouvertes et fermées avec le même
            circonflexe en orthographe français) souvent utilisés dans les
            romanisations françaises de type Hepburn pour de nombreuses langues
            asiatiques et sémitiques qui nécessitent une distinction des voyelles
            longues et courtes (une distinction phonologique qui existait aussi en
            ancien français, et existe encore en français canadien, même si elle
            n'était pas toujours suivie orthographiquement puisque à l'époque on
            confondait tous les accents, mais on distinguait encore le s long), et
            qu'on retrouve couramment dans les noms et marques japonais et
            indiens.

            D'où l'AFNIC a sorti sa liste ? A-t-il consulté la BnF ou l'Académie
            françise sur les distinctions de sens nécessaires ?

            Le 29 avril 2012 23:02, Patrick <patrick@...> a écrit :
            > http://www.journaldugeek.com/2012/02/09/des-accents-prochainement-dans-les-noms-de-domaine-en-fr/
          • Jxildaso
            ... En même temps ce que certains appellent le clavier français standard ( azerty donc, France ou Belgique, mais sous Windows...) ne permet pas grand
            Message 5 de 6 , 30 avr. 23:24
            Afficher la source
            • 0 Pièce jointe
              Le 30 avril 2012 20:48, Philippe Verdy a écrit :
              > Parmi les 30 caractères annoncés, on trouve tous les caractères
              > manquants pour le français:
              >
              > à, â, å, æ, ç, è, é, ê, ë, î, ï, ô, ö, œ, ù, û, ü, ÿ
              >
              > Mais bizarrement aussi des lettres avec tilde et accent aigu qui
              > n'existent pas en français usuel, mais seulement dans des
              > romanisations ou des toponymes et noms de familles non français :
              >
              > á, ã, ä, ç, í, ì, ñ, ó, õ, ò, ú, ý.
              >
              > Ceux avec accents aigus ne peuvent même pas être tapés sur un clavier
              > français standard.

              En même temps ce que certains appellent le "clavier français standard"
              ("azerty" donc, France ou Belgique, mais sous Windows...) ne permet
              pas grand chose non plus... Du moins comparé à d'autres cousins (il
              est ainsi plus facile d'avoir des majuscules accentuées et des
              ligatures avec la disposition "azerty" sous MacOs
              <http://accentuez.mon.nom.free.fr/Ecriture-Mac.htm> ou Linux avec la
              variante fr-oss
              <http://idoric.free.fr/dotclear/index.php/post/2006/12/05/La-disposition-de-clavier-francais-fr-oss>)
              ou à certains claviers non-français standard ("qwerty"
              suisse/canadien/brésilien/etc.)
              Enfin, il est toujours possible de les saisir quand on connait leur
              code... <http://www.lamagiedelapoesie.com/t3216-accent-sur-les-lettres-en-majuscules-codes-ordi>
              <http://en.wikipedia.org/wiki/Unicode_input#Hexadecimal_code_input> Ou
              alors il est temps de passer au "bépo"
              <http://bepo.fr/wiki/Pr%C3%A9sentation>

              [...]

              --
              http://forum.ubuntu-fr.org/viewtopic.php?id=2042
              http://visuel.ouvaton.org/Visuel.htm
              http://www.siteduzero.com/forum-83-596502-p1-clavier-disposition-fr-oss-pour-windows.html

              http://www.alt-codes.net/ http://alt-codes.org/list/
            • Philippe Verdy
              ... Je le sais bien, c est bien pour ça que mon clavier standard utilise la touche AltGr+& pour taper un accent aigu diacritique en tant que touche morte,
              Message 6 de 6 , 1 mai 2012
              Afficher la source
              • 0 Pièce jointe
                Le 1 mai 2012 08:24, Jxildaso <gildasique@...> a écrit :
                > En même temps ce que certains appellent le "clavier français standard"
                > ("azerty" donc, France ou Belgique, mais sous Windows...) ne permet
                > pas grand chose non plus... Du moins comparé à d'autres cousins (il
                > est ainsi plus facile d'avoir des majuscules accentuées et des
                > ligatures avec la disposition "azerty" sous MacOs
                > <http://accentuez.mon.nom.free.fr/Ecriture-Mac.htm> ou Linux avec la
                > variante fr-oss
                > <http://idoric.free.fr/dotclear/index.php/post/2006/12/05/La-disposition-de-clavier-francais-fr-oss>)
                > ou à certains claviers non-français standard ("qwerty"
                > suisse/canadien/brésilien/etc.)

                Je le sais bien, c'est bien pour ça que mon "clavier standard" utilise
                la touche AltGr+& pour taper un accent aigu diacritique en tant que
                touche morte, ou AltGr+, pour la cédille, afin d'accentuer les
                capitales, et autres subtitilités (dont une série d'autres accents,
                ponctuations comme – — et signes typographiques usuels, et même la
                plupart des diacritiques européens eux aussi en touches mortes
                supplémentaires avec AltGr; pour le reste la disposition reste
                strictement la même que le clavier "standard" de Windows hérité des
                anciennes machines à écrire mécaniques).

                > Enfin, il est toujours possible de les saisir quand on connait leur
                > code... <http://www.lamagiedelapoesie.com/t3216-accent-sur-les-lettres-en-majuscules-codes-ordi>
                > <http://en.wikipedia.org/wiki/Unicode_input#Hexadecimal_code_input> Ou

                C'est la pire méthode d'entrée, pas pratique, difficile à mémoriser et
                très lent à taper. J'ai plus vite fait d'utiliser une "charmap" pour
                les caractères exceptionnels. Jamais je n'ai utilisé cette méthode de
                saisie hexadécimale (sauf en HTML/XML où j'utilise les entités de
                caractères numériques &#xNNNN; pour ces caractères exceptionnels
                (exemple ◌ pour le cercle pointillé).

                > alors il est temps de passer au "bépo"
                > <http://bepo.fr/wiki/Pr%C3%A9sentation>

                Là encore changer de disposition complètement est plus perturbant. On
                peut facilement étendre le clavier standard sans rien changer aux
                positions standards (moyennant quelques ajustement pour transformer
                certaines touches assignées à des diacritiques chassants en touches
                mortes pour taper les diacritiques sans chasse, ce que j'ai fait pour
                l'accent grave par exemple, sachant que la version chassante peut être
                frappée par la même touche suivie d'une espace ou en tapant une
                seconde fois la même touche, ce qui est finalement plus rapide et plus
                pratique).

                On peut faire cela de façon mnémonique et intelligente,
                l'apprentissage est facile et ne remet pas en cause la façon de taper
                tous les textes. Le clavier standard sous-utilise la touche AltGr et
                les deux touches mortes standard (l'accent circonflexe ^ et le tréma ¨
                sur la même touche frappée avec la touche majuscule) sont incomplètes
                (elles ne reconnaissent pas certaines compositions valides uilisées
                dans d'autres langues européennes).

                Mon clavier étendu basé sur la disposition standard tape sans problème
                les macrons, les apostrophes courbes, les tirets, les brèves, les s
                longs, les s dur allemands, les ronds en chef (å... avec la touche
                degré ° transformée en touche morte, qui avec l'accent grave chassant,
                est la seule concession à la compatibilité totale, mais avec un
                avantage mnémonique évident sans problème de compatibilité pour ces
                caractères assez rarement tapés isolément).

                L'avantage d'une extension d'un clavier standard, plutôt qu'une
                redéfinition complèten est qu'il n'y a pratiquement aucune
                incompatibilité avec les logiciels localisés (car certains ne veulent
                pas qu'on change la disposition pour les caractères de base de la
                disposition standard, sinon ils "reconnaissent" des accélérateurs vers
                des fonctions spéciales et non les caractères voulus réellement
                tapés). Et il n'est jamais nécessaire de réapprendre une disposition
                ou de basculer d'une disposition à l'autre (car on finit toujours par
                oublier involontairement la disposition avec laquelle on est habituée,
                ce qui finit alors invariablement par plus d'erreurs de frappe).

                L'intérêt d'une redéfinition est seulement si on on utilise un clavier
                physique différent (il m'arrive parfois d'utiliser des PC avec un
                clavier AZERTY belge francophone légèrement différent du clavier
                français, dans ce cas j'ai une dispo étendue qui reprends la
                disposition belge avec des extensions similaires pour les touches
                mortes, mais j'évite au maximum les modifications du clavier de base).
              Votre message a été soumis avec succès et sera remis aux destinataires brièvement.