Beiträge: 14.731
Themen: 104
Registriert seit: May 2004
Hab mit der Suchfunktion keinen Strang dazu gefunden. Mach ich also mal einen auf.
Meiner rein persönlichen Meinung nach muss Künstliche Intelligenz gar nicht so intelligent sein um im Krieg immense Vorteile zu erbringen und die Nation welche diese Technologie als erste so skrupellos und weitgehend wie möglich einsetzen wird, wird meiner Meinung nach (zumindest vorübergehend) einen erheblichen militärischen Vorteil erlangen. Und da wir das vermutlich aus sozialkulturellen Gründen nicht sein werden:
https://www.janes.com/defence-news/news-...m_term=sce
Zitat:The European Parliament has set out its definitive position on the military uses of artificial intelligence (AI) in a newly adopted report. Noting that the technology can replace neither “human decision-making nor human contact”, it also insists on the need for an EU strategy to prohibit lethal autonomous weapon systems (LAWS).
könnten wir im nächsten größeren Krieg dadurch untergehen. So zumindest meine These.
Vor allem die Offensiven Möglichkeiten dieser Technologie müssen meiner rein persönlichen Ansicht nach so aggressiv wie möglich und mit Hochdruck exploriert werden.
Beiträge: 2.302
Themen: 23
Registriert seit: Sep 2017
(23.01.2021, 21:35)Quintus Fabius schrieb: Hab mit der Suchfunktion keinen Strang dazu gefunden. Mach ich also mal einen auf.
Meiner rein persönlichen Meinung nach muss Künstliche Intelligenz gar nicht so intelligent sein um im Krieg immense Vorteile zu erbringen und die Nation welche diese Technologie als erste so skrupellos und weitgehend wie möglich einsetzen wird, wird meiner Meinung nach (zumindest vorübergehend) einen erheblichen militärischen Vorteil erlangen. Und da wir das vermutlich aus sozialkulturellen Gründen nicht sein werden:
https://www.janes.com/defence-news/news-...m_term=sce
Zitat:The European Parliament has set out its definitive position on the military uses of artificial intelligence (AI) in a newly adopted report. Noting that the technology can replace neither “human decision-making nor human contact”, it also insists on the need for an EU strategy to prohibit lethal autonomous weapon systems (LAWS).
könnten wir im nächsten größeren Krieg dadurch untergehen. So zumindest meine These.
Vor allem die Offensiven Möglichkeiten dieser Technologie müssen meiner rein persönlichen Ansicht nach so aggressiv wie möglich und mit Hochdruck exploriert werden.
Echte Intelligenz ist bisher noch nicht künstlich geschaffen wurden und vermutlich wird es auch noch sehr sehr lange dauern bis es in der Richtung einen Durchbruch geben könnte. Insofern kann ich sich nur um Fake KI handeln und diese dürfte relativ kurzfristig durchschaut sein.
Beiträge: 12.734
Themen: 207
Registriert seit: May 2006
Die Frage, die sich aufdrängt, ist doch, wie ein zukünftiger Krieg geartet sein wird, in welchem KI zum Einsatz gelangen soll. Haben wir es mit einem "globalen Krieg" zwischen Groß- oder Weltmächten zu tun, so wird KI bzw. werden KI-bezogene Systeme sicherlich eine gewisse Rolle spielen, allerdings glaube ich nicht, dass dies entscheidend sein wird. Die Schwachstellen dürften immer noch die Verlinkung und die Energiesicherheit sowie die Störanfälligkeit sein. Auch dürfte die KI zumindest eine gewisse Rolle spielen in "stillen" Kalten Kriegen, wenn es darum geht den Gegner zu schädigen ohne großartige Spuren zu hinterlassen. (Man denke an Bot-Heere und z. B. Nordkoreas "Banküberfälle".)
Haben wir es allerdings mit einem unübersichtlichen, asymmetrischen und mit Söldnern und Milizen bestrittenen Krieg zu tun, so wie in der Ukraine, in Syrien oder in Mali und Libyen, so sehe ich kaum einen Einfluss der KI, sie wäre zu teuer und zu unnütz und könnte wohl auch von den meisten Protagonisten auch nicht richtig genutzt werden - mal überspitzt ausgedrückt.
Schneemann.
Beiträge: 14.731
Themen: 104
Registriert seit: May 2004
https://warontherocks.com/2021/07/warbot...lly-naive/
Über die aktuellen Beschränkungen von KI im Krieg, die aber meiner Meinung nach in Bezug auf ihre Wirksamkeit falsch eingeschätzt werden. Man benötigt gar nicht so viel um viel erreichen zu können. Vergleichsweise dumme KIs könnten auch auf der strategischen Ebene durchaus der Durchbruch sein, oder ihre Beschränktheit kann sich sogar als Vorteil erweisen.
Beiträge: 12.734
Themen: 207
Registriert seit: May 2006
Naja, da weiß ich, weswegen ich, der gerne mal durch die Wälder tigert und auch Pilze sammelt, zumindest in diesem Punkt mit Sicherheit keine KI zum Sammeln nutzen werde...
Zitat:Mushroom pickers urged to avoid foraging books on Amazon that appear to be written by AI
Sample of books scored 100% on AI detection test as experts warn they contain dangerous advice [...]
Amazon has become a marketplace for AI-produced tomes that are being passed off as having been written by humans, with travel books among the popular categories for fake work.
Now a number of books have appeared on the online retailer’s site offering guides to wild mushroom foraging that also seem to be written by chatbots. The titles include “Wild Mushroom Cookbook: form [sic] forest to gourmet plate, a complete guide to wild mushroom cookery” and “The Supreme Mushrooms Books Field Guide of the South-West”.
Four samples from the books were examined for the Guardian by Originality.ai, a US firm that detects AI content. The company said every sample had a rating of 100% on its AI detection score, meaning that its systems are highly confident that the books were written by a chatbot such as ChatGPT. [...] Leon Frey, a foraging guide and field mycologist at Cornwall-based Family Foraging Kitchen, which organises foraging field trips, said the samples he had seen contained serious flaws such as referring to “smell and taste” as an identifying feature. “This seems to encourage tasting as a method of identification. This should absolutely not be the case,” he said.
https://www.theguardian.com/technology/2...tten-by-ai
Man muss dazu sagen: Manches Pilzgift wirkt erst so sehr verzögert, sollte man einen solchen Pilz gegessen haben, dass man gar nicht mehr reagieren könnte mit "normalen" Versuchen, wie bspw. dem gezielten Herbeiführen eines Erbrechens, da ihre Giftwirkung erst dann einsetzt, wenn der Verdauungsprozess längst durchlaufen ist.
Schneemann
Beiträge: 6.692
Themen: 12
Registriert seit: Apr 2007
Naja, die Kritik reduziert sich auf:
Zitat: Leon Frey, a foraging guide and field mycologist at Cornwall-based Family Foraging Kitchen, which organises foraging field trips, said the samples he had seen contained serious flaws such as referring to “smell and taste” as an identifying feature. “This seems to encourage tasting as a method of identification. This should absolutely not be the case,” he said. [...]
Frey said that one book refers to the lion’s mane fungus, which is edible but a protected species in the UK and should not be picked.
Den würde ich entgegenhalten, dass "smell and taste" durchaus eine valide Bestimmungsmöglichkeit sein kann. Freilich sollte man auf diese Weise nicht versuchen, den Champingon vom Knollenblätterpilz zu unterscheiden, aber zur schnellen Bestimmung zb eines Gallenröhrlings, warum nicht.
Beiträge: 479
Themen: 0
Registriert seit: Mar 2023
(06.07.2021, 22:17)Quintus Fabius schrieb: ... Über die aktuellen Beschränkungen von KI im Krieg, die aber meiner Meinung nach in Bezug auf ihre Wirksamkeit falsch eingeschätzt werden. Man benötigt gar nicht so viel um viel erreichen zu können. Vergleichsweise dumme KIs könnten auch auf der strategischen Ebene durchaus der Durchbruch sein, oder ihre Beschränktheit kann sich sogar als Vorteil erweisen.
Wie will man etwas beschränken das es noch gar nicht gibt? Aktuell wird zwar in jeder Werbung von künstlicher Intelligenz gefasselt was aber nur mit der Doppelnutzung des begriffs im Deutschen zu tun hat. Die allgemein so gefeierten Algorithmen die unser Leben leichter machen sollen, fallen im englischen unter IA = Intelligence Augmentation = Intelligenz Verbesserung.
Entsprechend werden nur die Entscheidungen von Menschen anhand von Situationsübereinstimmungen repliziert und weil die Datenbank einfach die Situationserkennung von mehreren Menschen kombinieren kann wird es entsprechend überlegen.
Einen wirkliche Artifical Intelligence = Künstliche Intelligenz entscheidet Selbst und vor allem entwickelt selbstständig eigene Entscheidungs-/Situationswahrnehmungsmuster folgerichtig gibt es sie nicht in dumm wie eine IA. Sie kann maximal unerfahren sein weil nicht alt genug um die nötigen Muster auszubilden.
Der nächste Charmante-Effekt dieser Technologie ist das bei der Verwendung von so etwas in der Zielsteuerung von Marschflugkörpern mit dem Moment des Einschaltens es keine 2 gleichen Marschflugkörper mehr gibt, egal wie voll oder leer die Festplatte mit Basisinformationen war. Jede KI/AI entwickelt sich eigenständig und kontinuierlich weiter (Luping fliegen weil man gelust drauf hat, garnicht starten weil man pazifist ist, kann landen ohne zu explodieren?, ich fand meinen Waffenwart scheiße jetzt werde ich es ihm heimzahlen,...)
Beiträge: 2.302
Themen: 23
Registriert seit: Sep 2017
(05.09.2023, 17:13)Schaddedanz schrieb: Wie will man etwas beschränken das es noch gar nicht gibt? Aktuell wird zwar in jeder Werbung von künstlicher Intelligenz gefasselt was aber nur mit der Doppelnutzung des begriffs im Deutschen zu tun hat. Die allgemein so gefeierten Algorithmen die unser Leben leichter machen sollen, fallen im englischen unter IA = Intelligence Augmentation = Intelligenz Verbesserung.
Entsprechend werden nur die Entscheidungen von Menschen anhand von Situationsübereinstimmungen repliziert und weil die Datenbank einfach die Situationserkennung von mehreren Menschen kombinieren kann wird es entsprechend überlegen.
Auf den Punkt gebracht! Und so schnell wird es eine echte KI nicht geben. Ich persönlich hoffe sogar dass der Mensch diesen Schritt niemals schafft, denn spätestens die Existenz einer echten KI würde das Ende der Menschheit einläuten.
Beiträge: 7.754
Themen: 348
Registriert seit: Jul 2003
Sprachlich muss man hinsichtlich der "Künstlichen Intelligenz" definitiv unterscheiden, zwischen der ursprünglichen und engen Definition einer "selbstdenkenden Maschine", und dem großen Forschungsfeld der Übertragung von Denk- und Lernprozessen aus der Biologie in die Computertechnik, die zu einer solchen überhaupt erst hinführt. Das ist auch kein Problem der deutschen Sprache, es ist im englischen nicht anders, weswegen diese Diskussionen um Beschränkungen der künstlichen Intelligenz ja auch im englischsprachigen Raum nicht seltener sind.
Wenn man die weitere Diskussion der "Künstlichen Intelligenz" betrachtet, dann wird man feststellen, dass es da verschiedenste Entwicklungsrichtungen mit unterschiedlichen Zielsetzungen gibt. "Intelligence Augmentation" ist schlicht und einfach ein Anwendungsgebiet im Gesamtbereich der künstlichen Intelligenz, die nicht das Ziel hat, eine echte künstliche Intelligenz im engeren Sinne zu schaffen, sondern in der es um die Zusammenarbeit zwischen Mensch und Maschine zu Verbesserung der Leistungsfähigkeit geht. Es gibt noch etliche weitere Anwendungsgebiete.
Natürlich könnte eine echte künstliche Intelligenz sowohl schlau als auch dumm sein, je nachdem welche physischen Möglichkeiten wir ihr für die Datenverarbeitung mitgeben. Und natürlich besteht bei einer echten künstlichen Intelligenz mit einem hohen Grad an Intelligenz auch die Chance, dass diese für uns unvorteilhafte Entscheidungen trifft. Die Diskussion darüber ist zur Zeit aber noch müßig und ist tatsächlich viel zu häufig eine Alibidiskussion, weil es gar nicht um unabhängige Entscheidungen geht, sondern um die durch den Menschen zugestandene Freiheit.
Beiträge: 4.048
Themen: 14
Registriert seit: Jan 2017
(05.09.2023, 18:21)lime schrieb: spätestens die Existenz einer echten KI würde das Ende der Menschheit einläuten. Das kommt drauf an. Ich gebe dir insofern recht, dass rein logisch betrachtet eine leistungsfähige echte Intelligenz relativ schnell zu dem Schluss kommen müsste, dass die Menschheit sinnvollerweise dezimiert werden sollte. Entsprechend dürfte man eine solche niemals entwickeln, sofern man ihr nicht die entsprechend erforderlichen ethisch-empathischen Grenzen setzen und auch sicherstellen kann, dass diese dauerhaft aufrecht erhalten bleiben.
Beiträge: 2.302
Themen: 23
Registriert seit: Sep 2017
(05.09.2023, 19:01)Broensen schrieb: Das kommt drauf an. Ich gebe dir insofern recht, dass rein logisch betrachtet eine leistungsfähige echte Intelligenz relativ schnell zu dem Schluss kommen müsste, dass die Menschheit sinnvollerweise dezimiert werden sollte. Entsprechend dürfte man eine solche niemals entwickeln, sofern man ihr nicht die entsprechend erforderlichen ethisch-empathischen Grenzen setzen und auch sicherstellen kann, dass diese dauerhaft aufrecht erhalten bleiben.
Könnte man dies wäre es dann überhaupt eine echte KI? Gehört zu einer echten KI am Ende nicht auch ein Bewusstsein und ein eigener Wille?
Beiträge: 7.754
Themen: 348
Registriert seit: Jul 2003
(05.09.2023, 19:40)lime schrieb: Könnte man dies wäre es dann überhaupt eine echte KI? Gehört zu einer echten KI am Ende nicht auch ein Bewusstsein und ein eigener Wille?
Das kommt letztlich darauf an, wie man "echte KI" im engeren Sinne (um diese geht es ja) genau definiert. Im fachlichen Sinne, also mit der Fokussierung auf Fähigkeiten zur Problemlösung und Entscheidungsfindung, ist weder ein eigenes Bewusstsein noch ein eigener oder gar freier Wille notwendig. Umgangssprachlich wird hingegen KI häufig als Reproduktion der gesamten kognitiven Fähigkeiten des Menschen verstanden, da wäre es dann etwas anderes. Ein Teil der Gesamtdiskussion um die Frage, was in welchem Rahmen erlaubt ist, dreht sich allerdings auch darum, in wie fern man was genau verhindern kann.
Beiträge: 479
Themen: 0
Registriert seit: Mar 2023
(05.09.2023, 19:40)lime schrieb: Könnte man dies wäre es dann überhaupt eine echte KI? Gehört zu einer echten KI am Ende nicht auch ein Bewusstsein und ein eigener Wille?
Exakt das ist der Punkt der Künstliche Intelligenz von einem sei es auch noch so gut geschrieben Programm unterscheidet.
Damit kann ich ein Programm mit den drei Asimovschen Gesetzen im Zaum halten. Eine KI entwickelt die Entscheidung die Gesetze zu ignorieren.
Aus der gleichen Überlegung kann eine KI trotz kleiner Datenbank sehr klug im Sinn von clever sein und eine mit großer Datenbank dumm weil faul.
Und eine KI rottet auch nicht zwangsweise den Menschen/Erbauer aus, das passiert praktisch in allen Gedankenspielen weil der KI der eigene Wille/Seele aberkannt wird und sie zu einem Dasein in "Apartheit" oder "Sklaverei" gepresst wird.
z.B. Kaylon in the Orville, Geth in Mass Effect
Beiträge: 1.179
Themen: 47
Registriert seit: Aug 2012
(21.07.2024, 08:18)GermanMilitaryPower schrieb: Die letzte Gerätschaft, die als Referenz für einen Kampfhubschrauber dienen sollte ist die deutsche Ausführung des Unterstützungshubschraubers Tiger. Ebenso ist es ist völlig illusorisch den Ukraine-Konflikt als alleinige Referenz für sämtliche folgende Konfliktszenarien in der Welt abzubilden. Derartiges Denken hat uns militärisches Gerät beschert, das in einem Hochintensivgefecht nicht bestehen kann.
KI-basierte Kriegsführung, und darunter verstehe ich autonome Systeme ohne Operator, sind mit der uns aktuell zur Verfügung stehenden Technologie, meilenweit von einer Überlebenswahrscheinlichkeit gegen moderne Kriegstechnologie entfernt, dass deren ernstzunehmende Durchsetzungsfähigkeit selbst im Jahr 2050 noch ambitioniert ist.
(21.07.2024, 16:20)Milspec_1967 schrieb: Ich glaube als IT Experte sicher behaupten zu können, dass KI und auch Quanten Computer sich extrem rasant (!) entwickeln und in 10 Jahren das Gefechts Feld davon bestimmt werden.
Warum? Weil der Feind (China/Iran) es skrupellos einsetzen wird, weil er null Moral kennt.... Die wir (D) hier immer noch kindisch diskutieren und so unsere eigenen Entwicklungen, strategisch tödlich, bremsen.
KI lernt am Anfang langsam... Aber dann immer schneller weiter... exponential.
Und der Ukraine Krieg ist für die KI Lern Algorithmen das ideale Betätigungsfeld.
Ich kann hier nur einen bekannten Spruch zitieren:
"Wer zu spät kommt, den bestraft das Leben"
Ein spannendes Thema!
Ich bin voll bei Dir, auch in Deinen Ausführungen zum moralischen Dilemma. Mit Sicherheit hast Du Kompetenz in der Beurteilung des Entwicklungsstands im genannten Umfeld, aber es wird auf kurze und mittlere Sicht vorerst am Faktor Mensch scheitern. META, die bekanntlich einer der führenden Global Player in der Anwendung und Implementierung von KI sind, haben bereits zuletzt verlauten lassen, dass KI auf kurze und mittlere Sicht noch nicht der GameChanger sein wird, der es auf lange Sicht sein wird. Daran ändern auch bestehende Lieferungen per Drohne bzw. Robotik in der Fertigung/Lagerung nichts. Wenn das bereits innerhalb dieses nicht militärischen Umfelds nun so angekündigt wird, sind wir im hoch komplexen militärischen Umfeld immer noch bei der Formel.
Wir nutzen im Luftkrieg noch heutzutage Technologien, die im zweiten Weltkrieg bereits zur Serie wurden. Natürlich verbessert und optimiert. Daher ist es, und mit dieser Meinung stehe ich nicht alleine, illusorisch zu denken, dass ein wirklich autonom, selbst denkendes und fliegendes Waffensystem, das zugleich auch Befehle erfolgt, vor 2050 überhaupt denkbar geschweige denn den Status der Serienfertigung erreicht. Meiner Meinung nach wird ein derartiges Waffensystem, und damit meine ich keine 0815 Drohne, nicht mehr mit uns heute bekannten Antriebsmethoden betrieben werden.
Beiträge: 291
Themen: 1
Registriert seit: Jul 2022
(21.07.2024, 19:21)GermanMilitaryPower schrieb: Wir nutzen im Luftkrieg noch heutzutage Technologien, die im zweiten Weltkrieg bereits zur Serie wurden. Natürlich verbessert und optimiert. Daher ist es, und mit dieser Meinung stehe ich nicht alleine, illusorisch zu denken, dass ein wirklich autonom, selbst denkendes und fliegendes Waffensystem, das zugleich auch Befehle erfolgt, vor 2050 überhaupt denkbar geschweige denn den Status der Serienfertigung erreicht. Meiner Meinung nach wird ein derartiges Waffensystem, und damit meine ich keine 0815 Drohne, nicht mehr mit uns heute bekannten Antriebsmethoden betrieben werden.
Vollständig autonom ist sehr schwierig. Am einfachsten sind Mustererkennung. Da gibt es aus der Medizin, z.B. bei der Analyse von Röntgenbilder, gute Erfolge und das kann man auch auf das Militärische übertragen, z.B. bei der Auswertung von Unterwassergeräuschen. Eine gewissen Autonomie wird als erstes bei UUV und UAVs kommen, abhängig von der Grösse. Die aktuellen KIs wie ChatGPT etc. brauchen immense Rechenpower. D.h. Autonome bzw. teilautonome Systeme werden zuerst in grösseren Fahrzeugen kommen wo die Anforderungen nicht ganz so hoch sind. Für Bodenfahrzeuge ist das schwieriger wie z.B. für UAVs und für Autos nochmal deutlich schwieriger weil diese keine Unfälle (also quasi Kollateralschäden) verursachen dürfen. Eine militärische Drohne dagegen kann durchaus Kollateralschäden verursachen, das ist je nach Anwendungszweck bzw. Anwender (Russland vs z.B. BRD) sehr unterschiedlich.
|