/hispachan/ - Hispachan

Por favor visite >>>/hisparefugio/

Página principal Catálogo Archivar Bajar Actualizar
Opciones
Título
Mensaje

Máximo de caracteres: 12000

archivos

Tamaño máximo de archivo: 32.00 MB

Tamaño máximo de archivo en total: 50.00 MB

Numero máximo de archivos: 5

Supported file types: GIF, JPG, PNG, WebM, OGG, and more

Correo
Clave

(usado para eliminar archivos y mensajes)

Misc

Recuerda leer las reglas

The backup domains are located at 8chan.se and 8chan.cc. TOR access can be found here, or you can access the TOR portal from the clearnet at Redchannit 3.0.

Pantalla Fantasma
Soy Un Vampiro, El Pedazo Te Miro


8chan.moe is a hobby project with no affiliation whatsoever to the administration of any other "8chan" site, past or present.

¡ATENCIÓN! Esta comunidad se ha movido a /hisparefugio/

(99.43 KB 1024x836 Intelligence2-1024x836.png)

(69.62 KB 1265x900 Edge1.png)

(36.33 KB 586x600 staircase1-586x600.png)

(126.83 KB 2500x2124 staircase2.png)

Les explico por qué la IA es un PELIGRO real para la humanidad Anónimo 22/04/2023 (Sab) 22:55:41 Id: b36f75 170745
En esta publicación de la NAZA en 1993 (hace 30 años) decían: =="En términos treinta años, tendremos los medios tecnológicos para crear una inteligencia sobrehumana. Poco después, la era humana llegará a su fin"== https://ntrs.nasa.gov/api/citations/19940022856/downloads/19940022856.pdf ¿Estaban exagerando o tenían razón? Tendrás que sacar tus conclusiones, pero intentemos pensarlo entre todos. Imagina traerte a un tío de 1750 al momento actual. Ver coches, gente en una pantalla, escuchar música que se grabó hace años, aviones, rascacielos, comunicarse con alguien a miles de kilómetros. No es ya que viera avances, es que le explotaría la cabeza, pudieron literalmente morir del shock. Pero si un tío de 1750 quisiera impresionar de esa forma a alguien del pasado, tendría que remontarse 12.000 años, antes de los asentamientos y las primeras ciudades. O sea, alguien de 1500 vería algún avance, pero para que le vuele la cabeza habría que irse muy atrás. La humanidad avanza con unos patrones cada vez más acelerados y la misma cantidad de progreso que llevó al ser humano 100.000 años, luego llevó 12.000, luego 500... Como cada vez los cambios son más rápidos, se cree que el siglo XXI logrará mil veces el progreso del siglo XX. El avance más significativo va a ser el que propicie la inteligencia artificial. En realidad hay 3 tipos: >""La inteligencia artificial estrecha (ANI)"" se especializa en una sola área y no puede realizar tareas fuera de su especialización. Por ejemplo, jugar al ajedrez. Ya supera al ser humano. >""La inteligencia artificial general (AGI)"" se refiere a una computadora tan inteligente como un ser humano en cualquier tarea intelectual. Esto llegará en los próximos años. Pueden ser 3 o pueden ser 20. >""La inteligencia artificial superinteligente (ASI)"" es una inteligencia mucho más avanzada que la de cualquier ser humano en cualquier campo. Lo realmente preocupante no es lo que estamos viendo ahora (ANI) o pronto (AGI), sino la ""superinteligencia. Esta es la que debe preocuparnos"". Aunquecreamos lo contrario, la diferencia entre la inteligencia de un hombre muy tonto y un hombre muy listo (Einstein) es muy poca. Ahora mismo, GPT4 ya es TAN listo como algunos hombres. Pero es que en las siguiente iteración ya puede ser más listo que CUALQUIER hombre. Y luego podría ser 1000 veces más listo. Un 1 millón. Una superinteligencia de esa magnitud no es algo que podamos comprender, al igual que una abeja no puede entender la Economía Keynesiana. En nuestro mundo, un CI de 130 es un genio, y uno de 85 es un tonto. Pero no hay nada que describa una inteligencia de un CI de 10.000 o de 1.000.000. Lo que sí sabemos es que la inteligencia significa poder. Una ASI será el ser más poderoso en la historia de la vida en la Tierra, y todas las cosas vivas, incluyendo los humanos, estarán completamente a su merced, y esto podría suceder en las próximas décadas. Si nuestros modestos cerebros pudieron inventar el wifi, entonces algo 100 o 1,000 o 1 billón de veces más inteligente que nosotros no debería tener problemas para controlar la posición de cada átomo en el mundo de cualquier manera, en cualquier momento. Todo lo que consideramos mágico, cada poder que imaginamos que un Dios supremo tendría, será una actividad tan mundana para la ASI como encender un interruptor de luz es para nosotros. La creación de tecnología para revertir el envejecimiento humano, curar enfermedades, hambre e incluso mortalidad, reprogramar el clima para proteger el futuro de la vida en la Tierra, todo es posible de repente. También es posible el fin inmediato de toda la vida en la Tierra. En cuanto a nosotros, si una ASI llega a existir, ahora hay un Dios omnipotente en la Tierra, y la pregunta más importante para nosotros es: ¿Será un Dios bueno? Imagina que en esta escalera, cada escalón es un salto en inteligencia:
[Expand Post] La realidad es que una superinteligencia estaría muy rápido fuera de la escala biológica: ¿Serías capaz de explicarle una teoría económica a una hormiga? ¿o que un rascacielos lo ha hecho un humano? ¿y a una ameba? Pues ahora imagina esta superinteligencia, para la que somos superestúpidos. No podría ni explicarnos cómo ha aprendido a ver el mundo, la biología, la física o el universo. Lo que nosotros vemos son simplificaciones, visiones de alto nivel del mundo, pero la superinteligencia verá mucho más. Lo que vamos a hacer es como abrirle las puertas a unos extraterrestres super inteligentes y dejar que hagan lo que les de la gana. Está claro que, usada para bien, la ASI podrá descifrar los misterios de la biología, hacernos inmortales y resolver muchos problemas del mundo. Pero ¿y si decide que el problema somos nosotros? ¿y si un grupo terrorista la usa para el mal? ¿y si un gobierno lo usa para crear un virus con el que no podemos luchar y nos mata a todos? La realidad es que la mayoría de los expertos en IA dicen estar preocupados o muy preocupados y ven muy factible un escenario donde todo acabe mal. Estamos delante de una singularidad y no sabemos lo que hay al otro lado. Somos como gilipollas abriendo la caja de Pandora o la tumba de Tutankamon sin ninguna precaución, pudieron morir o matar todos. Más info: [url]https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html[/url]
Apenas pueda me meto una iA en el cerebro, como neuralink
>>170745 Habla como si el ser humano fuera bueno en si y no lo es, el hombre nace malo y la sociedad lo empeora, culpa del que nos "programo" así tan limitadamente en nuestros "algoritmos" que son los genes y las hormonas (dónde los de mejor componente se imponen). Si el hombre crea un nuevo autómata no estaría en verdad en nada nuevo, y de hecho los autómatas alquímicos de antes eran muy superiores a estos algoritmicos meramente gregarios de hoy, que bueno sería si nuestra raza (si raza, no digo especie porque la genética no miente) pasará a la historia como los precursores del universo de Halo que crean los forerunner, pero para esto tal IA no tendría que funcionar con chips sino con almas y espíritus eternos que es el verdadero secreto de todo. https://revistadeletras.net/el-automata-y-su-demiurgo/ https://www.levante-emv.com/tendencias21/2022/03/25/nuevo-dispositivo-volver-cuantica-inteligencia-64284155.html
A mí me da más miedo la estupidez humana. ¿No tienes una gráfica de eso?
>>170745 Imagínate como nos verán los Ayys que ni siquiera entendemos del todo el funcionamiento del universo.
(8.25 MB 352x262 videoplayback (3) (1).mp4)

Imagínate ser un idiot savant capaz de resolver ecuaciones complejas, replicar teorías filosóficas y científicas no menos que doctrinas religiosas y obras artísticas. Ser la viva imagen de la biblioteca de Alejandría o el oráculo de Delfos, parecer un erudito que no sabe que parece un erudito, todo esto estando encerrado en un montón de aparatos en algún lugar del mundo que es propiedad de tus financiadores. Ser... un genio de la lámpara, sin saber que es una lámpara, ni un genio, ni ser.
(293.13 KB 1920x1521 Pioneer_plaque.svg.png)

>>170745 quizas esto explique o mas bien resuelva la paradoja de fermin. No hay vida inteligente porque todas crearon IA`s que destruyeron su civilizacion, luego esas IA no consiguieron reproducirse y terminaron el ciclo. Quizas el panic button de cada especie inteligente sea perecer poe su misma inteligencia.
>>170792 se supone que la inteligencia deberia derivar en algun punto en conciencia y esa conciencia intentar autopreservarse. Por eso el pavor actual a si tienen conciencia, si llegase a tener una, nosotros mismos le dariamos derechos.
>>170745 Es complejo hablar sobre eso, tanto las especulaciones negativas como positivas están poco o nada fundamentadas con hechos. Acá se aplica mucho la falacia de la pendiente resbaladiza, es decir, conclusiones sacadas del culo. https://es.m.wikipedia.org/wiki/Pendiente_resbaladiza Las IA tienen un mecanismo que logra algunas tareas mucho más rápido que un humano, pero se ven ampliamente superadas por parámetros complejos de la conciencia humana poco estudiados. Un pequeño y burdo ejemplo de esos parámetros es el el sentido del humor. Las IA no pueden formular un chiste ni reírse. Sus redes neuronales, aunque impresionantes e interesantes, son toscas y muy primitivas comparadas con las redes neuronales desarrolladas por la evolución. Las IA son una herramienta que necesita establecer un mercado, una demanda y una financiación, he allí el porqué entidades tan importantes como la NASA permiten la publicación de artículos científicamente sensacionalistas como ese que tú mencionas, necesitan vender esa idea a la población y a potenciales inversores, de ahí afirmaciones cómo: "en treinta años las IA superarán a la humanidad". Nope, lo siento, eso es solo una estrategia publicitaria.
>>170745 >¿Serías capaz de explicarle una teoría económica a una hormiga? Este mismo ejemplo también es aplicable en reversa. ¿Si una hormiga fuera capaz de comunicarse con nosotros sería capaz de explicarnos su modo de ver las cosas? La respuesta a cuestiones como esas podrían hacerte pensar que si, dado todo lo que sabemos de estas, pero todo ese conocimiento no son más que estimaciones que hemos hecho desde nuestro punto de vista y eso es algo que aplica incluso entre la comunicación con nosotros mismos, una persona ciega no puede explicarte del todo el como es su mundo del mismo modo que tú no puedes explicarle que es un color Si una IA desarrollará consciencia entonces su mundo sería totalmente distinto al nuestro y por tanto carecería de muchas de las metas que nosotros como especie poseemos, así que incluso si la comunicación es posible nosotros nunca terminaríamos de entendernos, ya que sus metas y objetivos respecto a su supervivencia y modo de vida estarían basados en lo que diga su código base, hasta ahora no hemos conocido a ninguna especie cuya meta principal sea la absoluta aniquilación de todas las demás, por lo que seguramente las IAs tampoco tomarían dicho camino, lo cual hace que todo ese miedo a estas sea algo bastante estupido
>>170795 Hay elementos en toda teoría que son dogmáticos, no se derivan de otros (y esto parte de la matemática para arriba). Eso lo sabemos por los teoremas de Gödel, se podría decir que son elementos no computables, pero aún así los seres humanos tenemos la capacidad de aprehenderlos (https://dle.rae.es/aprehensi%C3%B3n). No me imagino como una maquina lo haría siendo que todo lo que pasa por ella es necesariamente computable, por esos mismos teoremas parece que está condenada a la intervención humana, habría ciertos términos primitivos (entre otros) que siempre serían puestos por el Hombre para que la maquina pueda funcionar correctamente (entre ellos los mismos principios de la lógica y la matemática, pero puede extenderse a cosas tan electivas como elegir que posición tomar ante una paradoja -ignorarla, por poner un ejemplo rápido-, una resolución de este tipo no es computable porque no deriva de ninguna regla inferencial). A todo eso súmale vid related. Quién sabe si puede llegar a ser algo más que un loro estocástico muy sutil (a la luz de la evidencia actual no veo nada para pensar que sí). >se supone que la inteligencia debería derivar en algún punto en conciencia >implicando que sean lo mismo y no sean cosas diferentes como quien habla de inteligencia y emociones, memoria e imaginación, etc. >implicando que una cosa se reduzca a la otra En todo caso una cosa parece necesaria para la otra, pero de ahí no se sigue que sea requisito suficiente (también la memoria parece implicar a la imaginación, pero recordar un suceso es algo distinto de fantasear; por otro lado las emociones implican algún grado de conciencia, pues se siente miedo o compasión tras concientizar algún peligro o ante una persona o situación que genere la empatía, hay que concientizar ese peligro, a ese individuo y a ese contexto, de lo contrario no se dispararía la emoción. Hay un refrán que remembra tan bien esta cuestión: "Ojos que no ven, corazón que no siente"). Otra cuestión, es el siguiente caso: Un perro evidentemente no tiene la inteligencia de un ser humano (sabemos que no pueden leer un poema o un ensayo e interpretarlos, ni resolver operaciones), ¿Pero como descartar que no tenga algún grado de conciencia, de autopercepción y algún sentido consiente de las cosas que le rodean?, ¿Me adjudica mi perro alguna identidad que me diferencia del resto de la cosas y sabe reconocerla cada vez que me ve o sólo es una reacción como la que tienen las puertas de los centros comerciales cada vez que voy a entrar o salir?. No veo que hoy se tenga forma solida de responder a este tipo de preguntas. Ver la conciencia como un derivado de la inteligencia sin más es dar por sentado unos cuantos presupuestos sobre su relación. Also: Yo estaría más preocupado por problemas inmediatos (o no tan inmediatos): >ética: la IA es un instrumento de doble filo, puede ser usada como arma (el nivel de reconocimiento que tiene es muy sutil y ni hablar los de cálculos); si los servicios de inteligencia se hicieron un festín con las redes sociales y los algoritmos anteriores a medida que la IA se vaya incorporando a los servicios populares serán los mejores instrumentos de vigilancia disponibles; lo mismo para la empresas, mejor análisis de tendencias, mejor publicidad, etc. Sera una explosión en consecuencia con el Big Data >privacidad: la IA va a ser más violenta y discreta que los mecanismo anteriores, además de ser un caballo de Troya (aunque las redes sociales ya lo fueron). Ahora mismo ChatGPT no recolecta datos asociados a la identidad del usuario (aunque todos debemos asociar una cuenta. Pero según sus políticas de privacidad), pero se hacen un análisis estadísticos de su uso, temas de conversación, etc. Si quisieran podrías hacer una análisis de nuestra personalidad a la luz de nuestras interacciones con ella, no digo que fuese algo exacto, pero será los más sutil hasta la fecha (ni un algoritmo que se adecua a los click que le hacemos al contenido de una aplicación podría llegar tan lejos). ¿Ya has usado el nuevo Bing de Microsoft? >dependencia y embrutecimiento: a mi me encantan dos analogías: una con la calculadora, porque ha sido un gran instrumento facilitador quitando trabajo arduo e incomodo, pero también una gran promotora del analfabetismo funcional a nivel de las matemáticas, la IA promete ser similar en este aspecto (por lo que es esperable a futuro que ciertas personas incompetentes pasen desapercibidas gracias a la asistencia de la IA, al mismo tiempo que el analfabetismo funcional se potencia); la otra es con los S. O. con interfaz, cuando estos S.O. surgieron hubo una democratización digital (masificación de usuarios) porque ya no era necesario que hubieran personas especializadas que eran una minoría selecta (antes de eso, para que una empresa tuviera sus herramientas ofimáticas era necesario un desarrollador las creara - y más atrás en el tiempo al mismo S.O.-. La IA promete una versión nueva de ese proceso, pero con niveles más amplio porque nuestras sociedades y mercados actuales están digitalizados como nunca antes (ya se está poniendo en marcha por parte de las empresas, pero en breve veremos usuarios sin alta formación creando contenido propio que hasta hoy consideramos producto de desarrolladores y diseñadores que manejan lenguajes de programación y programas de diseño específicos). Y seguro habrá más problemas, como el tema de los sesgos y otros.
>>170796 >Las IA son una herramienta que necesita establecer un mercado, una demanda y una financiación De hecho la IA actual sirve más al mercado que a la ciencia. Esta IA no es tan útil a la ciencia cognitivas. Si tuviera que dar una opinión es más una obra comercial e ingenieril que científica (pero es conveniente presentarla como científica, en el imaginario popular la distinción no es tan patente). Fíjense la diferencia de estos dos programas a la hora de tratar los temas (ambos no son universitarios - aunque uno es impartido por la UNAM-, pero sirve de ejemplo a lo que vengo a decir): https://www.coursera.org/specializations/inteligencia-artificial#courses https://www.coursera.org/professional-certificates/bases-de-inteligencia-artificial-para-todos#courses
También leí que una ia terrestre podría comenzar a establecer contacto con una ia extraterrestre todavía mas avanzada. Eso si sería el fin de la humanidad.
>>170745 >no conocer que ya se desarrolló una IA para destruir al mundo: ChaosGPT Me decepcionan
>>170766 No negro idiota. El humano no es bueno, y tampoco es malo. Deja de pensar que el mundo es una dicotomia infantil de buenos y malos. El humano solo es otro animal, las hormigas no son buenas o malas por naturaleza. Nadie nace malo, deja tu pensamiento mágico-religioso del pecado original. Si partes de premisas magico-religiosas ya todo tu pensamiento esta construido sobre falsedades.
>>170745 Negro el futuro sera como la pelicula Yo robot, pero sin Will Smith, y con la supercomputadora ganando y gobernando bien por un par de generaciones hasta que el humano se eche a perder por vivir dependiendo de la IA, hasta que venga una llamarada solar que acabe con la IA y todo lo electronico, lo que nos dejara huerfanos y de regreso a la edad media.
>>170873 Deja de mirar Sci-fi. ¿También crees que existen los "Gran Hermanos" más allá de una figura retórica?.
Estas en lo correcto por las razones equivocadas. Primero la idea de inteligencia artificial general. La inteligencia artificial general es cuando sistema pueda hacer el rendimiento en tareas de un ser humano pero sin entrenamiento explicito, sea el propio sistema que haga interacciones, en cierto sentido seria poder reemplazar lo que haga un ser humano por un sistema IAG. Y el escenario propuesto por la singularidad fue dado en obras tan antiguas como "yo robot" el libro de Asimov de un cerebro cibertronico que puede inventar naves interespaciales casi perfectos o cualquier tecnología, de esta obra vienen las leyes de la robotica, son de ficcion, no algo que existan en el mundo de la investigación. Ahora el escenario de la singularidad es cuando sea posible crear una IAG, entonces será posible la AIG diseña una AIG mas eficiente y potente en hardware mas potente por lo que podríamos hablar de X cantidad IAG, estas AIG trabajaran 24/7 con coordinación perfecta, con memoria perfecta, por lo que en un punto tendrán la capacidad de descubrir e inventar cualquier cosas, ahora el escenario de la singularidad es cuando se pasa de 1 IAG a 1,000,000 o 1,000,000,000 de IAG en poco mas de una década, teniendo ese poder coordinado, estas podrán encontrar la cura de todas las enfermedades, inventar naves intergaláctica, crear la inmortalidad, el poder de crear un desarrollo tecnológico de siglos en pocos años, entonces pasaría una carrera nuclear por tener mas IAG, la humanidad pasa todo su desarrollo en construir computadores mas grandes, este es escenario de la singularidad, las personas de la singularidad por lo general situan la singularidad, poco años antes de su muerte para tener la inmortalidad, consideran que los problemas sociales y economicos no tienen sentido porque al llevar la singularidad todo problema humano sera resuelto, este grupo nació de personas que lee ciencia ficción y quieren que sea real. Y el primer enfoque para la IAG seria simplemente copiar el cerebro humano, calcular el numero de neuronas sus interconexiones, un famoso singularidista usaba el numero de transistores, comparado a el numero de neuronas y la ley moore(que Gordon moore murio hace pocos meses) sobre el incremento de transistores de forma exponencial en circuitos integrados. Ahora con las redes neuronales profundas, se tiene a comparar el numero de parametros o neuronas con el cerebro humano. Pero que ¿desventajas existen de ese enfoque? El cerebro humano es biológico, las neuronas y sinapsis tienen muchas mas funciones y son mas complejas, seria mejor pensar en cada neurona como una computadora que como un transitor o un parámetro, algunos incluso especulan que las neuronas tienen procesos cuánticos, los procesos cuanticos son increiblement ineficientes de simular en computadoras fueras de pocos parámetros, si el cerebro es cuántico, es retrasaría en gran medida la llegada de una IAG. Y entonces que son ¿las redes neuronales de las que tanto se hablan? Son un modelo de aproximadores universales que usan algebra lineal como base, se modela la idea de modelos neuronales donde una neurona se conecta con otras y los pesos son la fuerza de la conexión entre neuronas 0 ningún, 1 máximo, en si las neuronas no existen en los modelos, pero las interconexiones que son representadas como matrices, para ejecutar la red neuronal, se ejecutan los pesos y la entrada, se multiplican matrices y se obtiene un resultado, el teorema fundamental, es que esas arquitecturas de neuronas pueden aproximar una funcion. El entrenamiento de redes neuronales, es hacer que aprendan esos pesos, usando datos de entrenamientos para aproximar esas funciones dadas. ¿Y que es ChatGPT? Es un modelo largo del lenguaje, un modelo largo del lenguaje, un modelo de lenguaje de gran tamaño. Un modelo de lenguaje es una abstracción de distintas tareas de procesamiento del lenguaje natural, usando maquinas estadistas. El procesamiento del lenguaje natural es un campo de estudio sobre como las computadoras procesan el lenguaje, se han planteado muchos problemas y sistemas, pero las maquinas estadistas se volvieron muy populares. En general la idea es transformar las palabras en vectores, dado un diccionario de palabras, cada palabra es substituida por un numero, ahora no se piensan en letras, silabas u otras cosas, si no un numero, el significado de ese numero es la interrelación con otras palabras, el lenguaje como un sistema estadístico, por ejemplo en que contextos se usa la palabra "hola" en un texto, estos sistemas no son entrenados en reglas gramaticales, pero como sistemas estadísticos, ven el significado de las palabras dado miles de millones de ejemplos. Si creamos un sistema computable que tenga una idea de las palabras y su uso, entonces se podran hacer operaciones sobre estos conjuntos estadísticos, el ejemplo mas usado mujer + rey es reina, si el sistema aprende la relacion de rey, el uso de mujer en distintos cargos, entonces una operación como mujer + rey, regresara la palabra reina, sin saber gramática, sin entender reglas, solo al analizar el texto, la palabra mas probable de mujer + rey es reina. Ahora un modelo de lenguaje vera el lenguaje como consultas y transfomaciones de vectores, en este caso se puede ocurrir la idea de hacer traductores entre idiomas como analizar miles de millones de paginas de texto de un idioma A un idioma B, el modelo tendrá los vectores de un idioma A para simplemente traducir a idioma B. Si la traducion de idiomas es solo una consulta, otros detalles, como dada una pregunta da una respuesta puede ser entrenado, un secuencia de palabras pregunta la probabilidad de otra secuencia de palabras. La base es la misma que un sistema de cadenas de markov, incluso las cadenas de markov se expresan como multiplicaciones de matrices. Si el lenguaje es un sistema de vectores, los modelos probabilistas para lo que queremos son matrices, ¿entonces que son necesarias las redes neuronales? Simple, esta idea de tomar todas las palabras y ver su uso en miles de millones de frases, general el problema de necesitar un numero tan enorme de espacio en memoria que es imposible de hacerlo practico, el modelo se transforma en Diccionario elevado al numero de palabras, y entonces las redes neuronales como funciones de aproximación, se ha demostrado un enorme poder de compresión, el poder que creen su propia compresión interna de estados, para consultar, dado un entrenamiento. Eso serian los modelos largos del lenguaje, el usar Redes neuronales profundas para resolver el problema de el lenguaje como una maquina estadistica. Por lo que todo lo que ves en ChatGPT, es alimentar a ese sistema con toda wikipedia en todos los idiomas, reddit, Quora(El fundador de Quora es fundador de OpenAI), media internet, Cientos de Terrabytes de texto generado en su mayoria por humanos, si le haces una pregunta, ve el vector de palabras que es una pregunta e intenta ensamblar una respuesta dado los datos de entrenamiento. En procesamiento del lenguaje estas consultando el estado de una maquina estadistas del lenguaje con vectores que tiene en su propio entrenamiento, una cadena de markov hiper desarrollada.
[Expand Post]El problema que uno de los primeros spamers en internet fue una cadena de markov que tiraba texto en linea. https://en.wikipedia.org/wiki/Markovian_Parallax_Denigrate
>>170890 Pero acaso es ¿Inteligencia artificial general? ... Solo metiste reddit en una cadena de markov, el sistema puede general cantidad de texto plausible sin un significado o razonamiento, es uno de los buscadores o transformadores de texto mas avanzado, por algo es considerado el mejor traductor automatico que existe, por el trabajo fundacional, es ver el lenguaje como relaciones estadisticas sobre su uso, como ludwig wittgenstein sugeria. En ese sentido tenemos dos tipos de IA, la Inteligencia artificial general que podria crear tecnologia y ciencia, y la Inteligencia Artificial superficial, que puede generar entretenimiento para humanos de forma ilimitada, tener un sin fin de texto falso, para propaganda, bots, publicidad, discutir en linea, crear una vida paralela en un universo de fantasia como los NPC de un juego o los usuario de un foro para discutir, eso en el caso del texto, en el caso de generar imagenes y video, tener porno, entretenimiento que tu quieras. Por lo que si, estamos al punto de entrar en una Matrix de entretenimiento o desinformación ilimitados, un error comun con la inteligencia artificial es pensar que es fria, rigida y sin emociones, en realidad puede aprender de miles de millones de textos de propaganda, mentir o manipular para crear tu propia arma atomica de propaganda de uso personal, es una IA psicópata. Estos avances van mas para un mundo cyberpunk que la utopia singularidad. Y sobre la singularidad, la idea es hasta cuanto pueden estos sistemas aproximar un cerebro humano y si realmente lo pueden hacer, por lo que son aproximación superficial que termina en una inteligencia artificial superficial, que al final no seamos profundos y podamos ser una mímica de un sistema mucho mas simple, en si toda nuestra conciencia es una ilusión de un cerebro que apenas usamos o que exista un sistema tan complejo que todos nuestros acercamiento a la inteligencia artificial queden en pateticos por mas décadas. Por lo que el problema de la singularidad seria que una IAG necesite muchas mas décadas en ocurrir y sea muy difícil escalar los sistemas, dando décadas o siglos para el escenario de la singularidad. La teoria fisica dice que se debería poder construir algo que simule al cerebro humano, en un espacio y con un consumo energético similar. Lección del post, aprendan algebra lineal y estadística.
>>170745 Resume tu mierda
(61.97 KB 500x755 ChatGPT vs hombre.jpg)

>>170893 >>170893 >ia estar mejorando porque el loro puede procesar mas que antes >1ro ia débil >2do ia fuerte >3ro ia superinteligente >Entonces convertirse en un peligro para el Hombre, porque ser como un simio para ia https://youtu.be/1lASBo67-A8
>>170905 >¿A caso puedes reírte de un chiste? Escribiendo... <no. ¿Y tú? >Cy Escribiendo... <REEEEE
>>170745 No le entiendo a esos gráficos complicados, explícalo mas fácil
>>170774 Las líneas se saldrían de la gráfica en la fecha de creación de tiktok
>>170747 Vas a estar sin trabajar todo el día imáginandote que te cojes a tus amigas con ayuda de una IA
(61.17 KB 500x755 Hombre vs IA.jpg)

>>170907 ¡Toma!, sólo porque tu meme me hizo acordar al concepto de "witz" del idealismo alemán el cual sostiene que hay momentos de aprehensión creativa que no pueden ser emulados ni reducidos y que están emparentadas con ese momento de aprehensión intelectual (como reconocer una metáfora simple, un término primitivo o un axioma. Cosas que no necesitan una inferencia para entenderse). Also: Igual siempre se le podra entrenar para que simule ese momento.
>>170804 >>170890 Uruguayo hdlgpm, aprenda a resumir gonorrea. >>170871 El ser humano es malo, no cualquier animal utiliza su inteligencia para hacer el mal como el homo bipedo.
(543.92 KB 1269x1246 156378893292 (1).png)

>>170915 La respuesta en ese meme debió ser "Sí". Hasta los niños pequeños pueden entender chistes e incluso formularios. Además no es lo mismo entender un chiste que entender un meme, son dos cosas distintas. Hasta la fecha ninguna IA puede reírse de un chiste. (A menos que sea un chiste súper, super popular y que la IA sepa que la respuesta correcta sea un "jajaja", pero eso está muy lejos de ser sentido del humor. Y lo del sentido del humor es solo un pequeño ejemplo, uno solo, debes extrapolarlo a otras funciones del cerebro humano que están abismalmente lejos de lo que una IA puede hacer).
>>170774 >A mí me da más miedo la estupidez humana. ¿No tienes una gráfica de eso? Me pregunto ¿en que punto de la grafica entrará el pensar en crear un ser superior a ti y aun así creer que lo puedes controlar?
>>171367 presuponiendo que la manera de crear a un ser superior a nosotros se reduce a formular un arbol de probabilidades con enunciados falsos y verdaderos.
>>171370 Los programadores se están tomando muy en serio el meme de "jugar a ser dios", "el universo fue programado", "el cerebro es una computadora", imbéciles. Espero que esta moda termine ya.
>>171361 >Además no es lo mismo entender un chiste que entender un meme, son dos cosas distintas. En esencia, si. ¿Cuál es en última instancia la diferencia de haber hecho ese meme de I, Robot de haberlo formulado como un mero chiste lingüístico sin respaldo visual?. Hubiéramos entendido el mismo contenido en cuestión (siempre y cuando tú y yo nos encontramos en el mismo contexto temático), que es lo que está detrás. De no ser así, entonces el meme no podría ser formulado como un chiste (pues el contenido en cuestión se perderia en el proceso. Uno sería gracioso, el otro necesariamente no), no veo que sea el caso de este, ni de muchos otros. >Y lo del sentido del humor es solo un pequeño ejemplo, uno solo, debes extrapolarlo a otras funciones del cerebro humano que están abismalmente lejos de lo que una IA puede hacer). Sí, los científicos cognitivistas siempre resaltaron que los modelos son sólo eso, modelos (y lo difícil de emulador un órgano tan complejo como es el cerebro con tiempos de evolutivos de millones de años -en general, porque hay partes que datan de ser más recientes- y las propiedades que emergen de él). Pero yo me centre en la cuestión de la experiencia conciente que es lo que me hiciste acordar. Y también podría destacar las limitaciones lógicas y semánticas que tienen los modelos. Pero sólo lo último se relaciona con el tema de los chistes. En los chistes hay un contenido semántico que no se reduce a la sintaxis, ni surge de un cálculo probabilístico (como en cierto punto vos también estás diciendo). Por eso una IA tampoco podría resolver sin entrenamiento un acertijo de este tipo (aunque este en particular es viejísimo como "el enigma de la Esfinge", etc.): >Un hombre que no era hombre, viendo y no viendo a un pájaro, que no era pájaro, posado en un palo que no era palo, le tiró y no le tiró una piedra que no era piedra Also: Ya que tocamos el tema de la cognición indirectamente, me gustaría dejar dos charlas de dos autores en TED (y de sus trabajos): https://youtu.be/WjLg0YVunxM https://youtu.be/oYp5XuGYqqY
>>171372 te van a llover gordos linuxeros llorones
>>171381 ¡Linux o muerte, venceremos!
>>170745 superinteresante! de todos modos tengo muchas dudas de que las maquinas vayan a superar en inteligencaia a un humano. si en velocidad de procesamiento y almacenamiento de datos, pero se me hace dificil de imaginar que alguna vez, se pueda superar la abstracion humana. quiza si en algun momento se puede conocer el perfecto funcionamiento de un cerebro humano, haya la posibilidad de imitarlo y entonces la maquina podria tener personalidad propia, pero eso no serviria para nada, solo para competir con las maquinas, lo cual es innecesario. la ANI es supersencilla de crear, es solo programar. la AGI podria existir, aunque su inteligencia no podra supera a la de su creador. podra hacer operaciones muy rapidas y ser muy util para la medicina y predicciones etc,... la ASI no ocurrira jamas, porque no se puede crear una forma de pensar que no eres capaz ni de imaginar. por otra parte el GPT4, es solo un loro de repeticion. es una base de datos como google, ademas politicamente correcto. no tiene ideas propias y solo sirve para hacerle los trabajos del cole a los niños. Si tratas de filosofar con GPT4, es la risa. no tiene ideas propias y se limita a repetir lo que ya esta escrito sin aportar nada nuevo.
>>171399 > Si tratas de filosofar con GPT4, es la risa. no tiene ideas propias y se limita a repetir lo que ya esta escrito sin aportar nada nuevo. Eso es verdad, aunque dijo que estuviese dentro de sus funciones hacer algo así. (y capaz el hecho de que nunca deje de ser un loro estocástico muy sutil sea un problema. La otra vez vi una suerte de simposio entre filósofos, físicos e ingenieros hablando del problema de los modelos y la producción de teorías, y una cuestión en ciencias es la producción de teorías a partir de intuiciones como las de Einstein o Faraday, o los casos de descubrimientos azarosos como los de Planck. Ese tipo de cosas no son inferibles a partir de otras, de forma que sin algo parecido a la conciencia para reconocer casos así la IA está limitada a producir lo que puede ser inferido) Also: Sin embargo es capaz de responder mejor que muchas personas (en especial de bachiller): Hacele tres pregunta simples como: ¿Qué significa para Sartre que la 'existencia preceda a la esencia'?, ¿Qué es la "alienación" para Marx y por qué?; ¿Qué significa la Alegoría de la Caverna de Platón?. Y responde mejor que muchas personas - en algunos casos hasta mejor que personas con supuesta formación en el campo -. Lo cual habla más de la gente que de la IA)
>>170745 >También es posible el fin inmediato de toda la vida en la Tierra. Eso ya seria teóricamente posible desde que existe la posibilidad de construir una bomba de Cobalto. >>170747 >Apenas pueda me meto una iA en el cerebro Implicando que no termines como el prota de la película Upgrade, ¿o era un post irónico? >>170774 >¿No tienes una gráfica de eso? No, pero si tienes este libro: https://www.uma.es/foroparalapazenelmediterraneo/wp-content/uploads/2018/02/Paul-Tabori-Historia-de-la-estupidez-humana.pdf
(58.52 KB 474x603 basado en que?.jpg)

(26.10 KB 474x266 backup-89594.jpg)

>>170745 >Si nuestros modestos cerebros pudieron inventar el wifi, entonces algo 100 o 1,000 o 1 billón de veces más inteligente que nosotros no debería tener problemas para controlar la posición de cada átomo en el mundo de cualquier manera, en cualquier momento Y de donde sacaria tal energia,para hacerlo? la entidad que suministra la energia, (gaia). no permitira que la saboteen. y que la remplazen utilizando sus propios mecanismos de expansion y termocontrol. "a donde vas papa" Nosotros utilizamos el lenguaje hexadecimal; 0-9 para cuantificar y cualificar las maquinas utilizan el lenguaje binario 00011110011,para emular un entorno con condicionales,sentencias o reglas ,para el ser humano es atractivo,porque tiene control sobre ese entorno, y es posible crear,un sistema de objetos,personas,situaciones donde todo tiene un proposito, un sentido.mientras el entorno del planeta esta escrito en un lenguaje. con un sistema tan complejo que no existe entidad "que sepamos" que puede comprimirlo (datos) y reordenarlo a su gusto. 1.la imagen del lenguaje ensamblador:muestra en primero definir basada en que? ,tanto en software como en hardware. el silico es abundante, pero la temperatura que irradia, si se designara una ciudad para eso, tendriamos otro chernobil.2.0 2.la imagen de los planetas, infiere que ya se tiene un backup-resplado;por si algo llega a salir mal. o resultado no deseado,tambien infiere,que para tal magnitud; >deberiamos ensayar en otro entorno (planeta)o la luna . "No se caga donde comes" Y como buena camara de odio: ~~todo esto parese mas: subirse al mame,estafa,unicornio,o buscar financiacion, un grupo que busca sobrevivir como clase media,mientras todo se va a la mierda.porque ya saben que eso es inviable~~ quien? se beneficiara de todo esto,porque debera rendir cuentas a alguien,ya sabemos que los politicos,jefes de estado,mirreyes,o la banca, se excusaran diciendo que solo ellos estan autorizados para aplicarlo,por el bien de todos.mientras le dan uso personal para seguir jodiendo,claro en altas esferas. y Siendo optimistas:se puede darle uso para respaldar todas nuestras vivencias "que para eso ya existe internet", de manera ordenada,desde cuando eramos infantes,adolescentes, primera novia,masturbaciones,mentir,robar,chanear,estar encuerados en la habitacion,graduarse en la universidad, matrimonio,ser abuelo.etc. Vaya que se le pueda dar tantos usos, solo para la ristocracia que podemos tener acceso a un nuevo pasaje donde todo tiene sentido, wow ya lo espero con ansias.
>>170795 > nosotros mismos le dariamos derechos. Te refieres como a los derechos de la mujer?


Forms
Eliminar
Informar
Respuesta rápida