In der Community des maschinellen Lernens gibt es ein Toxizitätsproblem

Toxizität ist überall.



Erstens wurde der Peer-Review-Prozess unterbrochen. Ein Viertel der Beiträge der NeurIPS-Konferenz wird auf arXiv hochgeladen. DeepMind hat Forscher, die Gutachter öffentlich belästigen, die ihre ICLR-Einreichung kritisieren. Darüber hinaus werden Artikel von renommierten Institutionen mit arXiv auf führenden Konferenzen angenommen, auch wenn die Gutachter beschließen, die Arbeit abzulehnen. Umgekehrt werden einige Artikel mit den positivsten Bewertungen abgelehnt (ich möchte keine nennen, werfen Sie einen Blick auf die diesjährige ICRL-OpenRview-Seite).



Zweitens gibt es eine Krise der Reproduzierbarkeit . Offensichtlich ist das Einstellen von Hyperparametern an einem Testsatz heutzutage eine Standardpraxis geworden. Artikel, die die derzeit beste Methode nicht übertreffen, haben keine Chance, auf einer guten Konferenz akzeptiert zu werden. Infolgedessen werden Hyperparameter angepasst, um Leistungssteigerungen zu erzielen, wenn keine verfügbar sind.



Drittens gibt es das Problem der Anbetung. Jeder Artikel in Bezug auf Stanford oder DeepMind wird als Durchbruch gefeiert. Zum Beispiel hat BERT siebenmal mehr Zitate als ULMfit. Die Zugehörigkeit zu Google verleiht dem Artikel viel Glaubwürdigkeit und Sichtbarkeit. Bei jeder ICML-Konferenz steht eine Menschenmenge vor jedem DeepMind-Poster, unabhängig vom Inhalt der Arbeit. Ähnlich verhält es sich mit Zoom-Meetings auf der virtuellen ICLR 2020-Konferenz. Darüber hinaus erhielt NeurIPS 2020 doppelt so viele Bewerbungen wie ICML, obwohl beide Konferenzen auf höchstem Niveau sind. Warum? Warum wird das Wort "neuronal" so gelobt? Als nächstes Bengio, Hinton und LeCune [Gewinner des Turing Award 2018 für KI-Forschung - ca. ln] ​​sind in der Tat die Pioniere des tiefen Lernens, aber es ist verrückt, sie die "Paten der KI" zu nennen. Dies wird bereits zum Kult.



ViertensYang LeCun war in Bezug auf die Themen Voreingenommenheit und Fairness eher mild. Als Reaktion darauf erhielt er jedoch eine völlig unzureichende Toxizität und negative Reaktion. LeCoon loszuwerden und die Person zum Schweigen zu bringen, ist keine Lösung.



Fünftens haben maschinelles Lernen und Informatik im Allgemeinen ein großes Ungleichheitsproblem(Vielfalt). In unserer CS-Fakultät sind nur 30% der Studenten und 15% der Professoren Frauen. Elternurlaub während des Studiums oder der Promotion bedeutet in der Regel das Ende einer akademischen Laufbahn. Diese Ungleichheit wird jedoch oft als Ausrede missbraucht, um manche Menschen vor jeglicher Form von Kritik zu schützen. Die Reduzierung jedes negativen Kommentars in der wissenschaftlichen Diskussion auf Rasse und Geschlecht schafft eine toxische Umgebung. Die Menschen haben Angst, an Diskussionen teilzunehmen, damit sie nicht als Rassisten oder Sexisten bezeichnet werden, was wiederum das Problem der Ungleichheit verschärft.



Sechstens werden Moral und Ethik willkürlich festgelegt. In jeder Diskussion dominiert die US-Innenpolitik. In diesem Moment landen Tausende von Uiguren in Konzentrationslagern, die auf von dieser Gemeinschaft erfundenen Computer-Vision-Algorithmen basieren, und niemand scheint sich darum zu kümmern. Das Hinzufügen eines Abschnitts "Größere Auswirkung" am Ende jedes Dokuments löst dieses Problem nicht. Haufenweise Mist entstehen, wenn ein Forscher in einem Artikel nicht erwähnt wird. Mittlerweile ist der afrikanische Kontinent mit 1 Milliarde Einwohnern praktisch von jeder sinnvollen Diskussion über ML ausgeschlossen (abgesehen von einigen Indaba-Workshops).



Siebtens ist die Mentalität weit verbreitetGeben Sie "veröffentlichen oder sterben" ein. Wenn Sie nicht mehr als 5 Artikel pro Jahr auf NeurIPS / ICML-Konferenzen veröffentlichen, sind Sie ein Versager. Die Forschungsteams sind so groß geworden, dass sich der Betreuer nicht einmal an die Namen aller Doktoranden erinnert. Einige reichen mehr als 50 Einträge pro Jahr bei NeurIPS ein. Der einzige Zweck dieses Artikels bestand darin, dem Lebenslauf einen weiteren NeurIPS-Artikel hinzuzufügen. Die Qualität ist zweitrangig; Das Hauptziel war es, die Vorschau-Phase zu durchlaufen.



Schließlich wurden die Diskussionen respektlos. Jürgen Schmidhuber, Helmholtz-Preisträger der International Society of Neural Networks, nennt die Royal Society of London Jeffrey Hinton einen Dieb, Timnit Gebra, äthiopisch-amerikanischer und Co-Direktor des Ethical Artificial Intelligence Team bei Google, nennt den "Paten der KI" Jan LeCun, Direktor der I Caltech-Forschung, als weißen Suprematisten Bei Nvidia nennt Anima Anandkumar den CEO von Geometric Intelligence und Buchautor Gary Markus sexistisch. Jeder wird angegriffen, aber nichts wird besser.



Albert Einstein war gegen die Quantenmechanik . Können wir bitte aufhören, diejenigen zu dämonisieren, die unsere Ansichten nicht genau teilen? Lassen wir die Leute nicht zustimmen, indem wir ihnen nicht die Kehle durchschneiden.



In dem Moment, in dem wir Menschen aufgrund ihrer Meinung zum Schweigen bringen, stirbt der wissenschaftliche und soziale Fortschritt einfach.



All Articles