Este hilo será renovado cada lunes

  • ffuentes@feddit.cl
    link
    fedilink
    arrow-up
    0
    ·
    3 months ago

    (claramente op nos mira en menos o cree que su fijación con el tema no es compartida por los demás)

    Qué mal pensado (me dio un flashback brigido a rchile hace unos años atrás). Mi error más bien fue no compartir el artículo de La Tercera (acá ya hemos comentado el problema con la paywall) entonces compartí ese que es la fuente original aparentemente. Yo no tengo una opinión muy concreta del tema porque como casi todos acá no sé hasta dónde puede llegar, uno sólo lo puede imaginar. Así que no sé si es para tanto, si es como para pensar que se van a crear IAs tan potentes que nos hagan daño, de momento pareciera que solo nos pueden hacer daño herramientas mal hechas o confiar demasiadoo en ellas para ciertas tareas. AHora de que ciertas pegas van a desaparecer ese es como el riesgo más real (ej traducción/interpretación y vendrán más)

    • skrlet13@feddit.cl
      link
      fedilink
      arrow-up
      0
      ·
      3 months ago

      El mayor problema de la IA (al menos en su forma actual) es que se pasa la ética por la raja y deja en claro el doble estándar que aplica a corporaciones vs gente random.

      Bajo la lógica de apoyadores de IA:

      • Utilizar publicaciones, materiales y posts de la gente random sin su consentimiento informado ni compensación para entrenar IA con fines de lucro ✅

      • Utilizar modelos que saben que entregan información y contenido que saben que es incorrecto y/o peligroso porque da plata (una advertencia en chiquito para evitar acciones legales no más) ✅

      • Utilizar contenido con copyright perteneciente a empresas billonarias para entrenar IA ❌❌ (como van a sobrevivir así 😞😞😞)

      Súmale que tiene un gasto energético terrible para dar resultados horribles.