l’intelligence artificielle au service de la justice : promesses et périls dans la résolution des conflits du travail en Afrique du Sud

La Commission pour la Conciliation, la Médiation et l
La Commission pour la Conciliation, la Médiation et l’Arbitrage (CCMA) en Afrique du Sud, c’est un peu comme un gros navire pris dans une tempête. Sa cale est chargée de plus de 100 000 affaires annuelles, et pas l’ombre d’un bain de soleil à l’horizon. On évoque souvent les oiseaux migrateurs, symboles de paix et de liberté, mais dans ce cas, ce sont les travailleurs qui migrent — d’un employeur à l’autre, d’une injustice à une autre, souvent sans jamais trouver la thermos de café qui les attendait à la fin du voyage.

Alors, le grand débat est lancé : et si l’intelligence artificielle (IA) venait à la rescousse ? Une belle promesse de remettre de l’ordre dans ce chaos ambiant. Pourtant, derrière cet éclair de rationalité se cache une question bien plus rugueuse : l’IA pourrait-elle réellement apporter une forme de justice, ou ne serait-elle qu’un masque pour dissimuler un système déjà défaillant ?

D’un côté, on a la digitalisation en marche, ces algorithmes qui prétendent prendre des décisions éclairées en un clin d’œil. Imaginez un système où un robot, armé de données et d’analyses, pourrait juger des cas de licenciement abusif. On pourrait fêter la fin des longues procédures judiciaires, l’extinction d’une surcharge de travail dans les tribunaux, et une équité promise sur un plateau d’argent.

Mais voilà, la question qui fâche. Qui programme ces algorithmes et, surtout, qui décide des critères d’évaluation ? La justice, ce n’est pas simplement une équation mathématique. C’est un ensemble de valeurs, de sentiments humains, de contextes qui ne s’analysent pas si facilement à l’aide de chiffres. Les biais de discrimination qui sont souvent attribués aux humains pourraient trouver un terrain fertile dans des lignes de code. Ce qui, dans la réalité, pourrait augmenter les disparités que l’on cherche à combattre.

L’exemple de la pandémie Covid-19 ne fait qu’ajouter au constat. Ce moment où le monde s’est arrêté a révélé les failles d’un système déjà en souffrance. La CCMA, sous-financée et croulant sous une charge de travail inhumain, a mis en lumière une désillusion palpable chez les travailleurs. L’IA pourrait-elle alors faire office de pansement sur une plaie béante, ou pire, devenir une excuse pour ne pas investir dans un système qui doit être fondamentalement repensé ?

Les outils comme Modria et Configero sont déjà là pour baliser ce chemin vers une résolution des conflits par voie numérique. Mais parlons franchement : ces outils ne sont pas une fin en soi. Ils peuvent s’apparenter à une béquille, et la vraie question demeure : cette béquille nous mène-t-elle vers une autonomie en matière juridique ou, au contraire, vers une plus grande dépendance à des systèmes qui ne s’assurent pas de la protection des droits fondamentaux des travailleurs ?

Le paradoxe s’intensifie. Les technologies pourraient faciliter l’accès à la justice, mais si ces mêmes technologies renforcent des systèmes opprimants, que reste-t-il de cette promesse d’un monde plus juste ? On pourrait tirer par la manche un personnage du passé, comme Adam Smith, pour nous rappeler que « le bonheur est parfois un peu égoïste ». Alors, que dirait-il d’un monde où le progrès technologique est synonyme de confort pour les entreprises, mais de précarité pour les employés ?

En fin de compte, l’IA ne peut pas être la seule réponse. Elle doit être un des nombreux outils dans une boîte à outils déjà lourde de responsabilités. La CCMA doit retrouver sa force — nourrie par un budget raisonnable, par l’engagement de travailleurs informés, et par un esprit critique qui n’a pas peur de poser des questions dérangeantes.

Pour le moment, la CCMA n’est pas qu’un lieu de résolution de conflits, mais un miroir qui reflète les inégalités et les faiblesses de notre société. Et tant que ce miroir ne sera pas totalement nettoyé, il est illusoire de penser que l’IA, par esprit de magie technologique, remettra de l’ordre dans le désordre ambiant. Un regard critique est nécessaire, pas seulement pour améliorer un système, mais pour assurer que ce dernier ne laisse personne sur le bord de la route. Oui, l’IA pourrait éclairer le chemin, mais sans une carte claire et un dialogue franc, ce chemin risque d’aboutir à un cul-de-sac.